开发者学习中心

开发者一站式学习、体验中心,学有所得、学有所乐!

 

    linux客户端服务器端程序 更多内容
  • 构建程序

    构建程序 前提条件 (1)函数中的IP地址为LTS的接入点,获取接入点IP方法如下: 登录云日志服务 LTS控制台,在左侧导航栏选择“主机管理 > 主机”; 在页面右上方,单击“安装ICAgent”; 在弹出的“安装ICAgent”窗口中获取接入点IP。 图1 接入点IP (2)

    来自:帮助中心

    查看更多 →

  • 构建程序

    构建程序 创建函数 登录 函数工作流 控制台,在左侧导航栏选择“函数 > 函数列表”,右上角单击“创建函数”。 进入创建函数页面,选择“创建空白函数”,填写函数信息,完成后单击“创建函数”。 函数类型:选择“HTTP函数”。 区域:选择“华东-上海一”。 函数名称:输入“Nextjs-app”。

    来自:帮助中心

    查看更多 →

  • 子程序

    程序 存储在数据库中的存储过程、函数、操作符和高级包等。当在数据库上建立好后,可以在其他程序中调用它们。 父主题: 声明语法

    来自:帮助中心

    查看更多 →

  • 子程序

    程序 存储在数据库中的存储过程、函数和操作符及高级包等。当在数据库上建立好后,可以在其他程序中调用它们。 独立的子程序 嵌套的子程序 父主题: 声明语法

    来自:帮助中心

    查看更多 →

  • 子程序

    程序 存储在数据库中的存储过程、函数、操作符和高级包等。当在数据库上建立好后,可以在其他程序中调用它们。 独立的子程序 包内的子程序 嵌套的子程序 父主题: 声明语法

    来自:帮助中心

    查看更多 →

  • 小程序

    程序 加入会议 会中功能

    来自:帮助中心

    查看更多 →

  • 准备Storm应用开发和运行环境

    ”。 使用Linux环境调测程序,需准备安装集群客户端Linux节点并获取相关配置文件。 在节点中安装客户端,例如客户端安装目录为“/opt/client”。 客户端机器的时间与集群的时间要保持一致,时间差小于5分钟。 集群的Master节点或者Core节点使用客户端可参考集群

    来自:帮助中心

    查看更多 →

  • 准备MapReduce样例初始数据

    操作场景 在调测程序之前,需要提前准备将待处理的数据。 运行MapReduce统计样例程序,请参考规划MapReduce统计样例程序数据。 运行MapReduce访问多组件样例程序,请参考规划MapReduce访问多组件样例程序数据。 规划MapReduce统计样例程序数据 将待处理的日志文件放置在HDFS系统中。

    来自:帮助中心

    查看更多 →

  • Spark Core样例程序开发思路

    txt中的内容复制保存到input_data2.txt。 在HDFS客户端路径下建立一个文件夹,“/tmp/input”,并上传input_data1.txt,input_data2.txt到此目录,命令如下: 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测HDFS应用

    Linux环境中调测HDFS应用 操作场景 HDFS应用程序支持在Linux环境中运行。在程序代码完成开发后,可以上传Jar包至准备好的Linux环境中运行。 HDFS应用程序运行完成后,可直接通过运行结果查看应用程序运行情况,也可以通过HDFS日志获取应用运行情况。 前提条件

    来自:帮助中心

    查看更多 →

  • 结束BulkLoad客户端程序,导致作业执行失败

    结束BulkLoad客户端程序,导致作业执行失败 问题 执行BulkLoad程序导入数据时,如果结束客户端程序,为什么有时会导致已提交的作业执行失败? 回答 BulkLoad程序客户端启动时会生成一个partitioner文件,用于划分Map任务数据输入的范围。此文件在Bulk

    来自:帮助中心

    查看更多 →

  • 结束BulkLoad客户端程序,导致作业执行失败

    结束BulkLoad客户端程序,导致作业执行失败 问题 执行BulkLoad程序导入数据时,如果结束客户端程序,为什么有时会导致已提交的作业执行失败? 回答 BulkLoad程序客户端启动时会生成一个partitioner文件,用于划分Map任务数据输入的范围。此文件在Bulk

    来自:帮助中心

    查看更多 →

  • 准备Hive应用开发和运行环境

    如果使用Linux环境调测程序,需在准备安装集群客户端Linux节点并获取相关配置文件。 在节点中安装客户端,例如客户端安装目录为“/opt/client”。 客户端机器的时间与集群的时间要保持一致,时间差小于5分钟。 集群的Master节点或者Core节点使用客户端可参考集群

    来自:帮助中心

    查看更多 →

  • 配置SSL连接

    在集群部署完成后,默认已开启SSL认证模式。 服务器 证书,私钥以及根证书已经默认配置完成。 SSL证书和客户端配置 用户需要配置客户端配置。 GaussDB (DWS) 提供SSL证书下载。 登录GaussDB(DWS) 管理控制台,在左侧导航栏中,选择“管理 > 连接客户端”。在“下载驱动程序”区域,单击“下载SSL证书”进行下载。

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测HDFS应用

    Linux环境中调测HDFS应用 操作场景 HDFS应用程序支持在Linux环境中运行。在程序代码完成开发后,可以上传Jar包至准备好的Linux环境中运行。 HDFS应用程序运行完成后,可直接通过运行结果查看应用程序运行情况,也可以通过HDFS日志获取应用运行情况。 前提条件

    来自:帮助中心

    查看更多 →

  • 使用DSC工具迁移SQL脚本

    Convertor)是一款运行在Linux或Windows操作系统上的命令行工具,致力于向客户提供简单、快速、可靠的应用程序SQL脚本迁移服务,通过内置的语法迁移逻辑解析源数据库应用程序SQL脚本,并迁移为适用于GaussDB(DWS) 数据库的应用程序SQL脚本。DSC不需要连接数

    来自:帮助中心

    查看更多 →

  • Spark应用开发流程介绍

    、SQL、JDBC客户端程序以及Spark on HBase四种不同场景的样例工程。 帮助用户快速了解Spark各部件的编程接口。 开发Spark应用 编译并运行程序 将开发好的程序编译并运行,用户可在本地Windows开发环境中进行程序调测运行,也可以将程序编译为Jar包后,提交到Linux节点上运行。

    来自:帮助中心

    查看更多 →

  • 在本地Windows环境中编包并运行Spark程序

    在HDFS客户端,执行如下命令获取安全认证。 cd {客户端安装目录} kinit {用于认证的业务用户} 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /data(hdfs dfs命令有同样的作用),创建对应目录。 在Linux系统HDFS客户端使用命令hadoop

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测HDFS应用

    Linux环境中调测HDFS应用 操作场景 HDFS应用程序支持在Linux环境中运行。在程序代码完成开发后,可以上传Jar包至准备好的Linux环境中运行。 HDFS应用程序运行完成后,可直接通过运行结果查看应用程序运行情况,也可以通过HDFS日志获取应用运行情况。 前提条件

    来自:帮助中心

    查看更多 →

  • Spark SQL样例程序开发思路

    <用于认证的业务用户> 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入到HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令hadoop fs

    来自:帮助中心

    查看更多 →

  • 编译并运行MapReduce应用

    编译并运行MapReduce应用 在程序代码完成开发后,可以在Linux环境中运行应用。 MapReduce应用程序只支持在Linux环境下运行,不支持在Windows环境下运行。 操作步骤 生成MapReduce应用可执行包。 执行mvn package生成jar包,在工程目录

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了