开发者学习中心

开发者一站式学习、体验中心,学有所得、学有所乐!

 

    linux查看服务器环境配置文件 更多内容
  • 搭建Linux编译环境

    搭建Linux编译环境 软件要求 安装编译器&构建器 安装图形化配置解析工具 父主题: Linux下的编译

    来自:帮助中心

    查看更多 →

  • 配置CPP环境(Linux)

    配置CPP环境Linux) c++版本需要在11及以上 cmake版本需要在3.14及以上 gcc-c++ 版本需要在5.4.0及以上 Linux版本CPP SDK依赖g++,cmake,此三项需要提前在机器安装,才能完成sdk编译和运行. CentOS yum install

    来自:帮助中心

    查看更多 →

  • 在Linux环境中查看Spark程序调测结果

    Linux环境查看Spark程序调测结果 操作场景 Spark应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 通过运行结果数据查看应用程序运行情况。 登录Spark WebUI查看应用程序运行情况。 通过Spark日志获取应用程序运行情况。 操作步骤 查看Spark应用运行结果数据。

    来自:帮助中心

    查看更多 →

  • 手工搭建Hadoop环境(Linux)

    手工搭建Hadoop环境Linux) 简介 本文介绍了如何在华为云上使用弹性云 服务器 Linux实例手工搭建Hadoop环境。Hadoop是一款由Apache基金会用Java语言开发的分布式开源软件框架,用户可以在不了解分布式底层细节的情况下,开发分布式程序,充分利用集群的能力

    来自:帮助中心

    查看更多 →

  • 在Linux环境中查看Spark程序调测结果

    Linux环境查看Spark程序调测结果 操作场景 Spark应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 通过运行结果数据查看应用程序运行情况。 登录Spark WebUI查看应用程序运行情况。 通过Spark日志获取应用程序运行情况。 操作步骤 查看Spark应用运行结果数据。

    来自:帮助中心

    查看更多 →

  • Linux环境集群版部署

    Linux环境集群版部署 环境准备 下面以三台操作系统为centos7.4的服务器为例。 表1 环境准备 主机ip 主机名 172.17.3.252 test252 172.17.3.253 test253 172.17.3.254 test254 环境部署 如果部署过单机版,需

    来自:帮助中心

    查看更多 →

  • Linux环境单机版部署

    edi-RTPS-el7/installdir 各服务安装目录 数据工厂所在服务器需添加实时处理服务器IP和主机名映射,例: 172.17.3.252 test252 实时处理服务器也应添加数据工厂所在服务器主机名映射,例: 172.17.3.237 edi 父主题: 实时处理服务部署

    来自:帮助中心

    查看更多 →

  • 准备Linux客户端环境

    准备Linux客户端环境 背景信息 安装Linux客户端用于拓扑的提交。 前提条件 确认Storm组件已经安装,并正常运行。 客户端机器的时间与集群的时间要保持一致,时间差要小于5分钟。 操作步骤 下载Storm客户端程序。 登录 MRS Manager系统。 选择“服务管理 > Storm

    来自:帮助中心

    查看更多 →

  • 查看环境变量

    查看环境变量 操作场景 本文指导您如何查看当前选择的应用租户下的所有环境变量。 操作步骤 登录LinkX-F系统首页。 选择“数据服务 > 环境变量”,进入“环境变量”页面。 列表展示所有的环境变量。如有需要,您可在“条件筛选”处输入或选择常用查询条件,单击“搜索”筛选数据。 父主题:

    来自:帮助中心

    查看更多 →

  • 基于Nginx实现应用的灰度发布

    进行如下操作: 先将A边服务器(原蓝环境)下线,同时访问流量将全部切分到B边服务器,此时对A边服务器进行升级操作。 A边服务器升级完毕后,将A边服务器设为灰度测试环境,由测试人员对A边服务器进行灰度验证。 灰度验证完毕且功能正常后,A边业务服务器(绿环境)正式上线,并将所有流量切分到A边业务服务器,此时蓝绿部署完毕。

    来自:帮助中心

    查看更多 →

  • 登录Linux服务器

    登录Linux服务器 Linux服务器登录方式概述 远程登录方式 SSH密钥方式登录 SSH密码方式登录 父主题: 实例

    来自:帮助中心

    查看更多 →

  • 实施步骤

    搭建JAVA环境 安装配置jdk 远程登录弹性云服务器,操作方法请参考登录Linux弹性云服务器。 解压安装JDK mkdir –p /data/services/jdk1.8.0_131 tar -zxvf /root/download/jdk-8u151-linux-x64.tar

    来自:帮助中心

    查看更多 →

  • 如何查看各组件配置文件路径?

    如何查看各组件配置文件路径? 常用组件配置文件路径如下所示: 组件 配置文件目录 ClickHouse 客户端安装路径/ClickHouse/clickhouse/config Flink 客户端安装路径/Flink/flink/conf Flume Flume客户端安装目录/f

    来自:帮助中心

    查看更多 →

  • 配置文件

    配置文件 当前提供的算子开发界面,功能尚未完善。高阶功能,需要通过编辑配置文件“custom.template.json”实现。 配置文件“custom/config/custom.template.json”的结构,如下所示: { "i18n": { "zh": {

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测HDFS应用

    Linux环境中调测HDFS应用 操作场景 HDFS应用程序支持在安装HDFS客户端的Linux环境中运行。在程序代码完成开发后,可以上传Jar包至Linux客户端环境中运行应用。 HDFS应用程序只支持在Linux环境下运行,不支持在Windows环境下运行。 前提条件 已安装HDFS客户端。

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测HBase应用

    Linux环境中调测HBase应用 操作场景 HBase应用程序支持在已安装或未安装HBase客户端的Linux环境中运行。在程序代码完成开发后,您可以上传Jar包至准备好的Linux运行环境中运行。 前提条件 已安装客户端时: 已安装HBase客户端。 当客户端所在主机不是集

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测HDFS应用

    Linux环境中调测HDFS应用 操作场景 HDFS应用程序支持在Linux环境中运行。在程序代码完成开发后,可以上传Jar包至准备好的Linux环境中运行。 HDFS应用程序运行完成后,可直接通过运行结果查看应用程序运行情况,也可以通过HDFS日志获取应用运行情况。 前提条件

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测Spark应用

    Linux环境中调测Spark应用 在Linux环境中编包并运行Spark程序 在Linux环境查看Spark程序调测结果 父主题: 调测Spark应用

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测Kafka应用

    Linux环境中调测Kafka应用 操作场景 在程序代码完成开发后,可以在Linux环境中运行IoTDB-Kafka样例程序。 前提条件 已安装IoTDB和Kafka客户端。 当客户端所在主机不是集群中的节点时,需要在客户端所在节点的hosts文件中设置主机名和IP地址映射。主机名和IP地址请保持一一对应。

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测Spark应用

    Linux环境中调测Spark应用 在程序代码完成开发后,您可以上传至Linux客户端环境中运行应用。使用Scala或Java语言开发的应用程序在Spark客户端的运行步骤是一样的。 使用Python开发的Spark应用程序无需打包成jar,只需将样例工程复制到编译机器上即可。

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测HetuEngine应用

    Linux环境中调测HetuEngine应用 操作场景 在程序代码完成开发后,可以把代码编译成jar包,上传到Linux环境进行程序功能调试。 在Linux环境上调测程序前,需在Linux节点预安装客户端。 操作步骤 在Windows环境的开发环境IntelliJ IDEA中,在“Maven

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了