开发者学习中心

开发者一站式学习、体验中心,学有所得、学有所乐!

 

    linux opt目录 空间 更多内容
  • 通过JDBC访问Spark SQL样例程序开发思路

    通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 将打包生成的jar包上传到Spark客户端所在 服务器 的任意目录(例如“ /opt/female/” )下。 运行任务 进入Spark客户端目录,使用java -cp命令运行代码(类名与文件名

    来自:帮助中心

    查看更多 →

  • 学工应用

    参数说明: 临时表空间的名称:TS_XSFW_TEMP 临时表存放路径:DATA/urpdb/datafile/TS_XSFW_TEMP.dbf 临时表空间初始大小:500m 是否为自动表空间扩展:autoextend on 自动扩展表空间大小设置:next 50m 最大扩展表空间大小设置:maxsize

    来自:帮助中心

    查看更多 →

  • 配置云服务器操作系统

    /opt/image-tools chmod 777 /opt/image-tools cp -r /mnt/image-tools/linux /opt/image-tools 执行如下命令,给脚本添加可执行权限。 cd /opt/image-tools/linux chmod +x *.sh umount /mnt/image-tools

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测HBase应用

    传至客户端运行环境的“客户端安装目录/HBase/hbase/lib”目录,根据具体样例项目“README.md”检查“客户端安装目录/HBase/hbase/conf”目录,将样例工程中配置文件及认证文件复制至该目录。 进入目录“客户端安装目录/HBase/hbase”,执行以下命令运行Jar包。

    来自:帮助中心

    查看更多 →

  • 部署安装

    远程登录 弹性云服务器 ,在根目录/opt下新建文件夹: mikdir /opt/SuperMap/License 上传许可文件至此目录下。 解压iManager部署包 tar -zxf supermap- imanager-for-kubernetes-*-linux64.tar.gz 配置环境

    来自:帮助中心

    查看更多 →

  • 安装和启动GDS

    ,则也应该选择X86客户端。 单击“下载”。 将GDS工具包上传至E CS 的/opt目录中,本例以上传Euler Kunpeng版本的工具包为例。 在工具包所在目录下,解压工具包。 1 2 cd /opt/ unzip dws_client_8.1.x_euler_kunpeng_x64

    来自:帮助中心

    查看更多 →

  • 安装后检查

    安装后检查 操作步骤 执行以下命令,检查“/opt/NAIE_Collector_20.5.1_Linux_x64”目录下文件及子目录的用户属主是否为collector及属组是否为collector,并确认collector用户及collector用户组对“Install.sh”、“Uninstall

    来自:帮助中心

    查看更多 →

  • 场景说明

    在HDFS上建立一个文件夹,“/tmp/input”,并上传input_data1.txt到此目录,命令如下。 在HDFS客户端,执行如下命令获取安全认证。 cd /opt/client kinit -kt '/opt/client/Spark/spark/conf/user.keytab' <用于认证的业务用户>

    来自:帮助中心

    查看更多 →

  • Spark SQL样例程序开发思路

    txt到此目录,命令如下: 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入到HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令在Linux系统HDFS客户端使用命令hadoop

    来自:帮助中心

    查看更多 →

  • 安装前准备

    Linux服务器 安装请参考如下步骤: 使用root用户,进入“/opt目录。 cd /opt 创建目录“jre”。 mkdir -p jre 设置JDK安装目录的权限。 chmod -R 640 jre/ 将压缩包上传到“jre”目录下,执行如下命令解压JRE安装包。 tar -zxvf JRE包名.tar

    来自:帮助中心

    查看更多 →

  • MRS备份任务执行失败

    查看备份目录是否软连接到/opt/Bigdata/LocalBackup。 检查备份文件是否软链接到系统盘且系统盘空间是否足够。如果软链接到系统盘且系统盘空间不足,请执行步骤2。如果否,说明不是由于系统盘空间不足导致,请联系技术服务。 将历史备份数据移到数据盘的新目录中。 以root用户登录Master节点。

    来自:帮助中心

    查看更多 →

  • 空间

    空间 支持查询 GaussDB (for MySQL)、GaussDB、GeminiDB(for Cassandra)及RDS for mySQL数据库的实例空间、表空间、库空间的概况及增长趋势。 实例空间 可以查看数据库实例空间使用概况、增长趋势。 进入运维中心工作台。 在顶部导航栏选择自有服务。

    来自:帮助中心

    查看更多 →

  • Spark Core样例程序开发思路

    ata1.txt,input_data2.txt到此目录,命令如下: 在HDFS客户端,执行如下命令获取安全认证。 cd {客户端安装目录} source bigdata_env kinit <用于认证的业务用户> 在Linux系统HDFS客户端使用命令hadoop fs -mkdir

    来自:帮助中心

    查看更多 →

  • 准备本地应用开发环境

    -xvf /opt/ MRS _Services_ClientConfig.tar 执行如下命令安装客户端到指定目录(绝对路径),例如“/opt/client”。目录会自动创建。 cd /opt/MRS_Services_ClientConfig sh install.sh /opt/client

    来自:帮助中心

    查看更多 →

  • 准备MapReduce应用运行环境

    {client_install_home} 进入客户端安装目录,执行如下命令初始化环境变量。 source bigdata_env 将5.2.2-准备开发用户中下载的user.keytab和krb5.conf文件拷贝到Linux环境的“/opt/conf”目录下,可参考5.4.1-编译并运行程序。

    来自:帮助中心

    查看更多 →

  • Spark SQL样例程序开发思路

    .txt,input_data2.txt到此目录,命令如下: 在HDFS客户端,执行如下命令获取安全认证。 cd /opt/hadoopclient source bigdata_env kinit <用于认证的业务用户> 在Linux系统HDFS客户端使用命令hadoop fs

    来自:帮助中心

    查看更多 →

  • Spark Core样例程序开发思路

    1.txt,input_data2.txt到此目录,命令如下: 在HDFS客户端,执行如下命令获取安全认证。 cd/opt/hadoopclient sourcebigdata_env kinit<用于认证的业务用户> 在Linux系统HDFS客户端使用命令hadoop fs -mkdir

    来自:帮助中心

    查看更多 →

  • Spark SQL样例程序开发思路

    .txt,input_data2.txt到此目录,命令如下: 在HDFS客户端,执行如下命令获取安全认证。 cd /opt/hadoopclient source bigdata_env kinit <用于认证的业务用户> 在Linux系统HDFS客户端使用命令hadoop fs

    来自:帮助中心

    查看更多 →

  • Linux

    Linux 操作场景 本章节主要介绍如何将老架构的Agent升级到新架构Agent。 约束限制 不支持局点:华南-广州-友好用户环境、拉美-圣保罗一、拉美-墨西哥城一。 操作步骤 使用root账号,登录ECS。 执行如下命令,确认当前Agent的版本是新架构Uniagent还是老架构telescope。

    来自:帮助中心

    查看更多 →

  • 安装和使用社区OpenMPI

    执行以下命令,解压HPC-X工具套件,并修改HPC-X工具套件目录。 # tar -xvf hpcx-v2.2.0-gcc-MLNX_OFED_LINUX-4.3-1.0.1.0-redhat7.3-x86_64.tbz # mv hpcx-v2.2.0-gcc-MLNX_OFED_LINUX-4.3-1.0.1.0-redhat7

    来自:帮助中心

    查看更多 →

  • Spark从Hive读取数据再写入HBase样例程序开发思路

    txt文件,并在文件内写入如下内容: 1,100 在HDFS中新建一个目录/tmp/input,并将log1.txt文件上传至此目录。 在HDFS客户端,执行如下命令获取安全认证。 cd /opt/hadoopclient kinit <用于认证的业务用户> 在Linux系统HDFS客户端使用命令hadoop fs

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了