开发者学习中心

开发者一站式学习、体验中心,学有所得、学有所乐!

 

    linux 网络通信例程 更多内容
  • Linux桌面转镜像

    Linux桌面转镜像 操作场景 如果用户对桌面配置、应用使用有相同要求,管理员可以在云桌面管理控制台中购买了一台使用Linux操作系统镜像生成的桌面,并登录该桌面进行一系列的配置、软件安装,然后将该桌面转换成镜像,再通过桌面转换成的镜像批量购买分配给目标人员使用。可节约人员配置成本,达到即开即用效果。

    来自:帮助中心

    查看更多 →

  • 创建Linux桌面镜像

    创建Linux桌面镜像 操作场景 如果用户对桌面池配置、应用使用有相同要求,管理员可以在云桌面管理控制台中购买了一台使用Linux操作系统镜像生成的桌面池桌面,并登录该桌面进行一系列的配置、软件安装,然后将该桌面转换成镜像,再通过桌面转换成的镜像批量购买分配给目标人员使用。可节约人员配置成本,达到即开即用效果。

    来自:帮助中心

    查看更多 →

  • 配置CPP环境(Linux)

    配置CPP环境(Linux) c++版本需要在11及以上 cmake版本需要在3.14及以上 gcc-c++ 版本需要在5.4.0及以上 Linux版本CPP SDK依赖g++,cmake,此三项需要提前在机器安装,才能完成sdk编译和运行. CentOS yum install

    来自:帮助中心

    查看更多 →

  • 注册ISO文件(Linux)

    注册ISO文件(Linux) 操作场景 通过注册镜像操作,将外部镜像ISO文件注册为云平台的私有镜像,即ISO镜像。注册镜像前,需先将ISO文件上传到OBS桶中。 约束与限制 如果制作的是鲲鹏 服务器 镜像,“架构类型”必须选择“ARM”,并且请确保所在Region可以创建鲲鹏 云服务器

    来自:帮助中心

    查看更多 →

  • 制作Linux空壳镜像

    制作Linux空壳镜像 镜像准备 Linux镜像可在现网公共镜像基础上进行修改。 选择Linux公共镜像,将镜像直接下发为虚拟机即可,注意密码设置符合要求的密码。(由于软件python脚本使用python3版本编写,镜像需包含python3版本,若不包含,需手动安装)。 脚本准备

    来自:帮助中心

    查看更多 →

  • 源端为Linux主机

    源端为Linux主机 本节介绍通过镜像迁移,将不在 SMS 支持迁移的Linux兼容性列表中的 主机迁移 上云。迁移过程需要先制作镜像,然后通过制作的镜像创建云服务器,完成迁移。 操作步骤 在源端服务器执行如下命令,查看OS分区格式。 sudo parted -l /dev/vda | grep

    来自:帮助中心

    查看更多 →

  • 文件删除失败(Linux)

    文件删除失败(Linux) 问题现象 日志没有报错,但是文件没有删除成功。 原因分析 可能是用户输错了文件路径,删除的时候没找到这个文件,所以默认已经删除。 处理方法 检查输入的文件路径,确保路径正确。 父主题: 删除文件

    来自:帮助中心

    查看更多 →

  • Spark SQL样例程序开发思路

    kinit <用于认证的业务用户> 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入到HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令hadoop

    来自:帮助中心

    查看更多 →

  • 使用Spark执行Hudi样例程序开发思路

    使用Spark执行Hudi样例程序开发思路 场景说明 本章节介绍如何使用Spark操作Hudi执行插入数据、查询数据、更新数据、增量查询、特定时间点查询、删除数据等操作。 详细代码请参考样例代码。 打包项目 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上。

    来自:帮助中心

    查看更多 →

  • 使用Spark执行Hudi样例程序开发思路

    使用Spark执行Hudi样例程序开发思路 场景说明 本章节介绍如何使用Spark操作Hudi执行插入数据、查询数据、更新数据、增量查询、特定时间点查询、删除数据等操作。 详细代码请参考样例代码。 打包项目 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上。

    来自:帮助中心

    查看更多 →

  • MapReduce统计样例程序开发思路

    txt到此目录,命令如下: 登录HDFS客户端。 cd 客户端安装目录 source bigdata_env 在Linux系统HDFS客户端使用命令hdfs dfs -mkdir /tmp/input 在Linux系统HDFS客户端使用命令hdfs dfs -putlocal_filepath /tmp/input

    来自:帮助中心

    查看更多 →

  • Spark Core样例程序

    Spark Core样例程序 Spark Core样例程序开发思路 Spark Core样例程序(Java) Spark Core样例程序(Scala) Spark Core样例程序(Python) 父主题: 开发Spark应用

    来自:帮助中心

    查看更多 →

  • Spark SQL样例程序

    Spark SQL样例程序 Spark SQL样例程序开发思路 Spark SQL样例程序(Java) Spark SQL样例程序(Scala) Spark SQL样例程序(Python) 父主题: 开发Spark应用

    来自:帮助中心

    查看更多 →

  • Spark SQL样例程序

    Spark SQL样例程序 Spark SQL样例程序开发思路 Spark SQL样例程序(Java) Spark SQL样例程序(Scala) Spark SQL样例程序(Python) 父主题: 开发Spark应用

    来自:帮助中心

    查看更多 →

  • Flink Kafka样例程序

    Flink Kafka样例程序 Flink Kafka样例程序开发思路 Flink Kafka样例程序(Java) Flink Kafka样例程序(Scala) 父主题: 开发Flink应用

    来自:帮助中心

    查看更多 →

  • Flink Join样例程序

    Flink Join样例程序 Flink Join样例程序开发思路 Flink Join样例程序(Java) 父主题: 开发Flink应用

    来自:帮助中心

    查看更多 →

  • Impala样例程序指导

    Impala样例程序指导 功能简介 本小节介绍了如何使用样例程序完成分析任务。本章节以使用JDBC接口提交数据分析任务为例。 样例代码 使用Impala JDBC接口提交数据分析任务,参考样例程序中的JDBCExample.java。 修改以下变量为false,标识连接集群的认证模式为普通模式。

    来自:帮助中心

    查看更多 →

  • 在Flink WebUI和Linux中调测Flink应用

    ink样例程序的开发程序,或“com.huawei.bigdata.iotdb.FlinkIoTDBSource”为执行FlinkIoTDBSource样例程序的开发程序。 场景二:使用Flink客户端在Linux环境下提交Flink作业 将1生成的Jar包放入Linux环境的F

    来自:帮助中心

    查看更多 →

  • 编译并运行MapReduce应用

    0.jar”到Linux客户端上。例如“/opt”目录。 如果集群开启Kerberos,参考5.2.2-准备开发用户获得的“user.keytab”、“krb5.conf”文件需要在Linux环境上创建文件夹保存这些配置文件,例如“/opt/conf”。并在linux环境上,在客户

    来自:帮助中心

    查看更多 →

  • Kafka样例程序开发思路

    Kafka样例程序开发思路 场景说明 Kafka是一个分布式消息系统,在此系统上可以做一些消息的发布和订阅操作,假定用户要开发一个Producer,让其每秒向Kafka集群某Topic发送一条消息,另外,还需要实现一个Consumer,订阅该Topic,实时消费该类消息。 开发思路

    来自:帮助中心

    查看更多 →

  • Spark从Hive读取数据再写入HBase样例程序开发思路

    在HDFS中新建一个目录/tmp/input,并将log1.txt文件上传至此目录。 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 在Linux系统HDFS客户端使用命令hadoop fs -putlog1

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了