开发者学习中心

开发者一站式学习、体验中心,学有所得、学有所乐!

 

    开发板例程linux 更多内容
  • Spark Core样例程序开发思路

    txt,input_data2.txt到此目录,命令如下: 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入到HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令hadoop

    来自:帮助中心

    查看更多 →

  • Spark Core样例程序开发思路

    txt,input_data2.txt到此目录,命令如下: 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入到HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令hadoop

    来自:帮助中心

    查看更多 →

  • Spark SQL样例程序开发思路

    txt,input_data2.txt到此目录,命令如下: 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入到HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令hadoop

    来自:帮助中心

    查看更多 →

  • MapReduce访问多组件样例程序开发思路

    bigdata_env kinit 组件业务用户 在Linux系统HDFS客户端使用命令hdfs dfs -mkdir -p/tmp/examples/multi-components/mapreduce/input/ 在Linux系统HDFS客户端使用命令hdfs dfs -putdata

    来自:帮助中心

    查看更多 →

  • MapReduce访问多组件样例程序开发思路

    客户端安装目录 source bigdata_env 在Linux系统HDFS客户端使用命令hdfs dfs -mkdir -p/tmp/examples/multi-components/mapreduce/input/ 在Linux系统HDFS客户端使用命令hdfs dfs -putdata

    来自:帮助中心

    查看更多 →

  • MapReduce访问多组件样例程序开发思路

    客户端安装目录 source bigdata_env 在Linux系统HDFS客户端使用命令hdfs dfs -mkdir -p/tmp/examples/multi-components/mapreduce/input/ 在Linux系统HDFS客户端使用命令hdfs dfs -putdata

    来自:帮助中心

    查看更多 →

  • 在Linux中调测Impala JDBC应用

    Linux中调测Impala JDBC应用 在运行调测环境上创建一个目录作为运行目录,如“/opt/impala_examples”(Linux环境),并在该目录下创建子目录“conf”。 执行mvn package ,在工程target目录下获取jar包,比如: impala-examples-mrs-2

    来自:帮助中心

    查看更多 →

  • MapReduce统计样例程序开发思路

    cd 客户端安装目录 source bigdata_env kinit 组件业务用户 在Linux系统HDFS客户端使用命令hdfs dfs -mkdir /tmp/input 在Linux系统HDFS客户端使用命令hdfs dfs -putlocal_filepath /tmp/input

    来自:帮助中心

    查看更多 →

  • MapReduce统计样例程序开发思路

    txt到此目录,命令如下: 登录HDFS客户端。 cd 客户端安装目录 source bigdata_env 在Linux系统HDFS客户端使用命令hdfs dfs -mkdir /tmp/input 在Linux系统HDFS客户端使用命令hdfs dfs -putlocal_filepath /tmp/input

    来自:帮助中心

    查看更多 →

  • MapReduce统计样例程序开发思路

    cd 客户端安装目录 source bigdata_env kinit 组件业务用户 在Linux系统HDFS客户端使用命令hdfs dfs -mkdir /tmp/input 在Linux系统HDFS客户端使用命令hdfs dfs -putlocal_filepath /tmp/input

    来自:帮助中心

    查看更多 →

  • 使用Spark执行Hudi样例程序开发思路

    使用Spark执行Hudi样例程序开发思路 场景说明 本章节介绍如何使用Spark操作Hudi执行插入数据、查询数据、更新数据、增量查询、特定时间点查询、删除数据等操作。 详细代码请参考样例代码。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中调测Spark应用。

    来自:帮助中心

    查看更多 →

  • 安装Linux操作系统

    安装Linux操作系统 由于操作系统安装镜像文件不同,安装步骤若稍有不同,请根据实际的安装界面提示进行操作。本小节以“Ubuntu 20.04” 服务器 版本操作系统为例,指导用户在虚拟机上安装Linux操作系统。 前提条件 已获取ISO镜像文件,假设为“Ubuntu-20.04-server

    来自:帮助中心

    查看更多 →

  • 手动配置Agent(Linux,可选)

    手动配置Agent(Linux,可选) 操作场景 用户成功安装Agent插件后,推荐您采用“修复插件配置”方式配置Agent。如果修复插件配置不成功或其他原因,你可以采用本章节提供的手工方式配置Agent。 前提条件 已成功安装Agent插件。 确认正在使用的Agent版本 使用root账号,登录E CS

    来自:帮助中心

    查看更多 →

  • 准备镜像文件(Linux)

    云服务器 中挂载的所有数据盘。 详情请参考卸载云服务器的数据盘。 镜像文件属性限制 表2 Linux操作系统的镜像文件属性限制 镜像文件属性 条件 操作系统 SUSE、Oracle Linux、Red Hat、Ubuntu、openSUSE、CentOS、Debian、Fedora、EulerOS、中标麒麟

    来自:帮助中心

    查看更多 →

  • 上传镜像文件(Linux)

    上传镜像文件(Linux) 推荐您使用OBS Browser+工具将外部镜像文件上传至OBS个人桶,详细操作请参见“OBS Browser+最佳实践”。 OBS Browser+工具下载方式:https://support.huaweicloud.com/browsertg-obs/obs_03_1003

    来自:帮助中心

    查看更多 →

  • Linux ECS登录方式概述

    )。 Linux 使用命令连接: 密码方式鉴权:SSH密码方式登录(本地使用Linux操作系统)。 密钥方式鉴权:SSH密钥方式登录(本地使用Linux操作系统)。 移动设备 使用Termius、JuiceSSH等SSH客户端工具登录云服务器: 通过移动设备登录Linux ECS。

    来自:帮助中心

    查看更多 →

  • Linux下打包Storm业务

    Linux下打包Storm业务 操作场景 Storm支持在Linux环境下打包。用户可以将从IntelliJ IDEA中导出的Jar包和需要的其他相关Jar包上传到Linux环境中执行打包。 前提条件 已安装Storm客户端。 已执行打包Strom样例工程应用。 当客户端所在主机

    来自:帮助中心

    查看更多 →

  • 编译并运行MapReduce应用

    0.jar”到Linux客户端上。例如“/opt”目录。 如果集群开启Kerberos,参考5.2.2-准备开发用户获得的“user.keytab”、“krb5.conf”文件需要在Linux环境上创建文件夹保存这些配置文件,例如“/opt/conf”。并在linux环境上,在客户

    来自:帮助中心

    查看更多 →

  • IoT Device SDK 使用指南(OpenHarmony)

    导请参考IoT Device SDK(OpenHarmony)使用指南。 使用说明 上面的文档主要说明了基于BearPi-HM_Nano开发板和OpenHarmony3.0对接IoTDA的数据。 若是使用不同OpenHarmony系统的情况下,可见文档:OpenHarmony环境构建指导。

    来自:帮助中心

    查看更多 →

  • MapReduce统计样例程序开发思路

    txt到此目录,命令如下: 登录HDFS客户端。 cd 客户端安装目录 source bigdata_env 在Linux系统HDFS客户端使用命令hdfs dfs -mkdir /tmp/input 在Linux系统HDFS客户端使用命令hdfs dfs -putlocal_filepath /tmp/input

    来自:帮助中心

    查看更多 →

  • 安装SAP HANA Studio(Linux)

    SAP HANA Studio提供对SAP HANA的管理功能。完成SAP HANA节点的部署后,需要安装SAP HANA Studio,并将SAP HANA节点纳入到SAP HANA Studio中管理。本节介绍在Linux操作系统上安装SAP HANA Studio。已准备好相关的资源,具体请参见资源准备相关章节。已完成 弹性云服务器

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了