开发者学习中心

开发者一站式学习、体验中心,学有所得、学有所乐!

 

    linux java 文件上传到服务器 更多内容
  • BulkDelete接口使用

    成jar包。具体操作请参考在Linux环境中调测Spark应用。 将打包生成的jar包上传到Spark客户端所在 服务器 的任意目录(例如“$SPARK_HOME” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器文件上传的路径需要和生成的jar包路径一致)。

    来自:帮助中心

    查看更多 →

  • SparkStreaming批量写入HBase表

    'cf1' 在客户端另外一个session通过linux命令构造一个端口进行接收数据(不同操作系统的机器,命令可能不同,suse尝试使用netcat -lk 9999): nc -lk 9999 在构造一个端口进行接收数据时,需要在客户端所在服务器安装netcat 开发思路 使用Spa

    来自:帮助中心

    查看更多 →

  • Spark Structured Streaming样例程序开发思路

    <subscribe-type>指Kafka订阅类型(如subscribe)。 <topic>指读取Kafka的topic名称。 <checkpointDir>指checkpoint文件存放路径,本地或者HDFS路径下。 由于Spark Structured Streaming Kafk

    来自:帮助中心

    查看更多 →

  • Spark Structured Streaming样例程序开发思路

    conf 两个文件上传客户端所在服务器。 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 编译打包前,样例代码中的user.keytab、krb5.conf文件路径需要修改为该文件所在客户端服务器的实际路径。例如:“/opt/female/user

    来自:帮助中心

    查看更多 →

  • 配置SSH跳转权限

    102:/root/.ssh/ 验证跳转功能 在NAT Server,通过SSH跳转到除SAP HANA Studio之外的所有服务器,确保跳转功能正常。 以跳转到一台SAP HANA服务器为例,假设SAP HANA服务器的业务/客户端平面IP地址为“10.0.3.2” ssh 10

    来自:帮助中心

    查看更多 →

  • SparkStreaming批量写入HBase表

    'cf1' 在客户端另外一个session通过linux命令构造一个端口进行接收数据(不同操作系统的机器,命令可能不同,suse尝试使用netcat -lk 9999): nc -lk 9999 在构造一个端口进行接收数据时,需要在客户端所在服务器安装netcat 开发思路 使用Spa

    来自:帮助中心

    查看更多 →

  • 如何安装MongoDB客户端

    tgz”,将安装包上传至弹性云服务器。 单击“Copy link”获取下载链接地址,登录弹性云服务器,执行wget copylink。 copylink请替换为实际下载的链接地址。 在弹性云服务器,解压安装包。 tar zxvf mongodb-linux-x86_64-rhel80-5

    来自:帮助中心

    查看更多 →

  • 如何安装MongoDB客户端

    tgz”。 将安装包上传到弹性云服务器。 创建并登录弹性云服务器,请参见购买弹性云服务器和登录弹性云服务器。 在弹性云服务器,解压安装包。 tar zxvf mongodb-linux-x86_64-rhel70-4.0.27.tgz 进入安装包的“bin”文件夹下,获取客户端工具。

    来自:帮助中心

    查看更多 →

  • 服务器/终端(Linux操作系统)

    服务器/终端(Linux操作系统) 以root用户登录服务器/终端。 开启审计功能。 systemctl start auditd 编辑配置文件/etc/rsyslog.conf。 vi /etc/rsyslog.conf 按“I”键,进入编辑模式,在配置文件/etc/rsyslog

    来自:帮助中心

    查看更多 →

  • 安装Linux应用服务器

    安装Linux应用服务器 基础环境要求 系统要求:EulerOS 2.9.8及以上系统版本。 网络要求:服务器需要有公网访问权限(绑定弹性EIP)。 防火墙要求:开放2376(docker服务)端口和35000-40000端口。 前提条件 已获取Linux服务器root账号密码。

    来自:帮助中心

    查看更多 →

  • 挂载NFS文件系统子目录到云服务器(Linux)

    挂载NFS文件系统子目录到云服务器Linux) 本章节介绍如何将NFS文件系统的子目录挂载至Linux服务器。 前提条件 已参考挂载NFS文件系统到云服务器Linux)成功将文件系统挂载至Linux服务器。 操作步骤 执行如下命令,在本地路径下创建文件系统的子目录。 mkdir

    来自:帮助中心

    查看更多 →

  • 使用MySQL客户端通过公网连接实例

    Download”压缩包,解压后获取根证书(ca.pem)和捆绑包(ca-bundle.pem)。 将根证书(ca.pem)上传到E CS 。 在ECS执行以下命令连接TaurusDB实例。 mysql -h <host> -P <port> -u <userName> -p --ssl-ca=<caName>

    来自:帮助中心

    查看更多 →

  • 约束与限制

    网关物理机部署模式下只支持部署在华为TaiShan 200 (Model 2280)物理服务器,虚拟机部署模式支持VMware ESXi 5.5及以上版本。 每个网关只支持配置一个缓存盘,且不支持扩容。 此处的“一个缓存盘”是逻辑的概念,并非指一个实际的物理磁盘。这个缓存盘要求是具备冗余的RAID

    来自:帮助中心

    查看更多 →

  • 创建JDK8基础镜像并上传至SWR

    创建JDK8基础镜像并上传至SWR 场景概述 在项目中,我们通常基于相同的基础镜像创建镜像。本章节将以JDK8基础镜像为例,介绍如何在CCE节点创建JDK8基础镜像并上传至SWR。 操作步骤 购买一个CCE集群。 登录CCE控制台。 在购买CCE集群页面配置集群参数,详细请参考创建集群参数配置。

    来自:帮助中心

    查看更多 →

  • 配置SSH跳转权限

    102:/root/.ssh/ 验证跳转功能 在NAT Server,通过SSH跳转到除SAP HANA Studio之外的所有服务器,确保跳转功能正常。 以跳转到一台SAP HANA服务器为例,假设SAP HANA服务器的业务/客户端平面IP地址为“10.0.3.2” ssh 10

    来自:帮助中心

    查看更多 →

  • Spark Streaming对接Kafka0-10样例程序开发思路

    <batchTime>,其中<checkPointDir>指应用程序结果备份到HDFS的路径,<brokers>指获取元数据的Kafka地址,<topic>指读取Kafka的topic名称,<batchTime>指Streaming分批的处理间隔。 由于Spark Streaming Kafka的依赖包在客户端

    来自:帮助中心

    查看更多 →

  • Spark SQL样例程序开发思路

    作请参考在Linux环境中调测Spark应用。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt/female/” )下。 运行任务 进入Spark客户端目录,调用bin/spark-submit脚本运行代码,运行命令分别如下(类名与文件名等请与实际代码保持一致,此处仅为示例):

    来自:帮助中心

    查看更多 →

  • 使用MySQL客户端通过内网连接实例

    使用MySQL客户端通过内网连接实例 当应用部署在弹性云服务器,且该弹性云服务器 GaussDB (for MySQL)实例处于同一区域,同一VPC时,建议单独使用内网IP连接弹性云服务器与GaussDB(for MySQL)实例。 本章节介绍了Linux方式下,SSL加密内网连接GaussDB(for

    来自:帮助中心

    查看更多 →

  • 使用MySQL客户端通过内网连接TaurusDB标准版实例

    使用MySQL客户端通过内网连接TaurusDB标准版实例 当应用部署在弹性云服务器,且该弹性云服务器与TaurusDB标准版实例处于同一区域,同一VPC时,建议单独使用内网IP连接弹性云服务器与TaurusDB标准版实例。 本章节介绍了Linux方式下,SSL加密内网连接TaurusDB标准版实例。

    来自:帮助中心

    查看更多 →

  • 安装云容灾网关

    xxxx.tar.gz”为例。 获取云容灾网关软件包到待部署服务器的任意目录。 IDC云:通过界面链接下载软件包,并上传到待部署的云容灾网关服务器; 跨区域和跨可用区:复制服务控制台页面提供的命令,登录待部署的云容灾网关服务器,进入任意目录,粘贴并执行命令获取软件包。 在软件包所在

    来自:帮助中心

    查看更多 →

  • BulkGet接口使用

    成jar包。具体操作请参考在Linux环境中调测Spark应用。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器文件上传的路径需要和生成的jar包路径一致)。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了