计算
弹性云服务器 ECS
Flexus云服务
裸金属服务器 BMS
弹性伸缩 AS
镜像服务 IMS
专属主机 DeH
函数工作流 FunctionGraph
云手机服务器 CPH
Huawei Cloud EulerOS
网络
虚拟私有云 VPC
弹性公网IP EIP
虚拟专用网络 VPN
弹性负载均衡 ELB
NAT网关 NAT
云专线 DC
VPC终端节点 VPCEP
云连接 CC
企业路由器 ER
企业交换机 ESW
全球加速 GA
安全与合规
安全技术与应用
Web应用防火墙 WAF
企业主机安全 HSS
云防火墙 CFW
安全云脑 SecMaster
DDoS防护 AAD
数据加密服务 DEW
数据库安全服务 DBSS
云堡垒机 CBH
数据安全中心 DSC
云证书管理服务 CCM
边缘安全 EdgeSec
威胁检测服务 MTD
CDN与智能边缘
内容分发网络 CDN
CloudPond云服务
智能边缘云 IEC
迁移
主机迁移服务 SMS
对象存储迁移服务 OMS
云数据迁移 CDM
迁移中心 MGC
大数据
MapReduce服务 MRS
数据湖探索 DLI
表格存储服务 CloudTable
云搜索服务 CSS
数据接入服务 DIS
数据仓库服务 GaussDB(DWS)
数据治理中心 DataArts Studio
数据可视化 DLV
数据湖工厂 DLF
湖仓构建 LakeFormation
企业应用
云桌面 Workspace
应用与数据集成平台 ROMA Connect
云解析服务 DNS
专属云
专属计算集群 DCC
IoT物联网
IoT物联网
设备接入 IoTDA
智能边缘平台 IEF
用户服务
账号中心
费用中心
成本中心
资源中心
企业管理
工单管理
国际站常见问题
ICP备案
我的凭证
支持计划
客户运营能力
合作伙伴支持计划
专业服务
区块链
区块链服务 BCS
Web3节点引擎服务 NES
解决方案
SAP
高性能计算 HPC
视频
视频直播 Live
视频点播 VOD
媒体处理 MPC
实时音视频 SparkRTC
数字内容生产线 MetaStudio
存储
对象存储服务 OBS
云硬盘 EVS
云备份 CBR
存储容灾服务 SDRS
高性能弹性文件服务 SFS Turbo
弹性文件服务 SFS
云硬盘备份 VBS
云服务器备份 CSBS
数据快递服务 DES
专属分布式存储服务 DSS
容器
云容器引擎 CCE
容器镜像服务 SWR
应用服务网格 ASM
华为云UCS
云容器实例 CCI
管理与监管
云监控服务 CES
统一身份认证服务 IAM
资源编排服务 RFS
云审计服务 CTS
标签管理服务 TMS
云日志服务 LTS
配置审计 Config
资源访问管理 RAM
消息通知服务 SMN
应用运维管理 AOM
应用性能管理 APM
组织 Organizations
优化顾问 OA
IAM 身份中心
云运维中心 COC
资源治理中心 RGC
应用身份管理服务 OneAccess
数据库
云数据库 RDS
文档数据库服务 DDS
数据管理服务 DAS
数据复制服务 DRS
云数据库 GeminiDB
云数据库 GaussDB
分布式数据库中间件 DDM
数据库和应用迁移 UGO
云数据库 TaurusDB
人工智能
人脸识别服务 FRS
图引擎服务 GES
图像识别 Image
内容审核 Moderation
文字识别 OCR
AI开发平台ModelArts
图像搜索 ImageSearch
对话机器人服务 CBS
华为HiLens
视频智能分析服务 VIAS
语音交互服务 SIS
应用中间件
分布式缓存服务 DCS
API网关 APIG
微服务引擎 CSE
分布式消息服务Kafka版
分布式消息服务RabbitMQ版
分布式消息服务RocketMQ版
多活高可用服务 MAS
事件网格 EG
企业协同
华为云会议 Meeting
云通信
消息&短信 MSGSMS
云生态
合作伙伴中心
云商店
开发者工具
SDK开发指南
API签名指南
Terraform
华为云命令行工具服务 KooCLI
其他
产品价格详情
系统权限
管理控制台
客户关联华为云合作伙伴须知
消息中心
公共问题
开发与运维
应用管理与运维平台 ServiceStage
软件开发生产线 CodeArts
需求管理 CodeArts Req
部署 CodeArts Deploy
性能测试 CodeArts PerfTest
编译构建 CodeArts Build
流水线 CodeArts Pipeline
制品仓库 CodeArts Artifact
测试计划 CodeArts TestPlan
代码检查 CodeArts Check
代码托管 CodeArts Repo
云应用引擎 CAE
开天aPaaS
云消息服务 KooMessage
云手机服务 KooPhone
云空间服务 KooDrive
本文导读

安装客户端

更新时间:2024-10-11 GMT+08:00

操作场景

该操作指导安装工程师安装MRS集群所有服务(不包含Flume)的客户端。MRS针对不同服务提供了Shell脚本,供开发维护人员在不同场景下登录其对应的服务维护客户端完成对应的维护任务。

说明:
  • 通过Manager界面修改服务端配置或系统升级后,建议重新安装客户端,否则客户端与服务端版本将不一致。

前提条件

  • 安装目录可以不存在,会自动创建。但如果存在,则必须为空。目录路径不能包含空格。
  • 客户端节点为集群外部服务器时,必须能够与集群业务平面网络互通,否则安装会失败。
  • 客户端必须启用NTP服务,并保持与服务端时间一致,否则安装会失败。
  • 对于下载所有组件客户端的情况,HDFS与Mapreduce是合一目录(“客户端目录/HDFS/”)。
  • 安装和使用客户端可以使用任意用户进行操作,用户名和密码请从系统管理员处获取,本章节以“user_client”进行举例。要求“user_client”用户为服务器文件目录(如“/opt/Bigdata/hadoopclient”)和客户端安装目录(如“/opt/client”)的“owner”,两个目录的权限为“755”。
  • 使用客户端需要已从系统管理员处获取“组件业务用户”(默认用户或新增用户)和“密码”。
  • 使用ommroot以外的用户安装客户端时,若“/var/tmp/patch”目录已存在,需将此目录权限修改为“777”,将此目录内的日志权限修改为“666”。

操作步骤

  1. 获取软件包。

    登录FusionInsight Manager,在“集群”下拉列表中单击需要操作的集群名称。

    选择更多 > 下载客户端,弹出“下载集群客户端”信息提示框。

    说明:

    在只安装单个服务的客户端的场景中,选择“集群 > 待操作集群的名称 > 服务 > 服务名称 > 更多 > 下载客户端”,弹出“下载客户端”信息提示框。

  2. “选择客户端类型”中选择“完整客户端”。

    “仅配置文件”下载的客户端配置文件,适用于应用开发任务中,完整客户端已下载并安装后,系统管理员通过Manager界面修改了服务端配置,开发人员需要更新客户端配置文件的场景。

    平台类型包括x86_64和aarch64两种:

    • x86_64:可以部署在x86平台的客户端软件包。
    • aarch64:可以部署在TaiShan服务器的客户端软件包。
    说明:

    集群支持下载x86_64和aarch64两种类型客户端,但是客户端类型必须和待安装节点的架构匹配,否则客户端会安装失败。

  3. 是否在集群的节点中生成客户端文件?

    • 是,勾选“仅保存到如下路径”,单击“确定”开始生成客户端文件,文件生成后默认保存在主管理节点“/tmp/FusionInsight-Client”。支持自定义其他目录且omm用户拥有目录的读、写与执行权限。单击“确定”,等待下载完成后,使用omm用户或root用户将获取的软件包复制到将要安装客户端的服务器文件目录,例如“/opt/Bigdata/hadoopclient”。然后执行5
      说明:

      当用户无法获取root用户权限,需要用omm用户操作。

    • 否,单击“确定”指定本地的保存位置,开始下载完整客户端,等待下载完成,执行4

  4. 上传软件包。

    使用WinSCP工具,以准备安装客户端的用户(如“user_client”),将获取的软件包上传到将要安装客户端的服务器文件目录,例如“/opt/Bigdata/hadoopclient”。

    客户端软件包名称格式为:“FusionInsight_Cluster_<集群ID>_Services_Client.tar”。

    后续步骤及章节以FusionInsight_Cluster_1_Services_Client.tar进行举例。
    说明:

    客户端所在主机可以是集群内节点,也可以是集群外节点。当该节点为集群外部服务器时,必须能够与集群网络互通,并启用NTP服务以保持与服务端时间一致。

    例如可以为外部服务器配置与集群一样的NTP时钟源,配置之后可以执行ntpq -np命令检查时间是否同步。
    • 如果显示结果的NTP时钟源IP地址前有“*”号,表示同步正常,如下:
      remote refid st t when poll reach delay offset jitter 
      ============================================================================== 
      *10.10.10.162 .LOCL. 1 u 1 16 377 0.270 -1.562 0.014
    • 如果显示结果的NTP时钟源IP前无“*”号,且“refid”项内容为“.INIT.”,或者回显异常,表示同步不正常,请联系技术支持。
      remote refid st t when poll reach delay offset jitter 
      ============================================================================== 
      10.10.10.162 .INIT. 1 u 1 16 377 0.270 -1.562 0.014

    也可以为外部服务器配置与集群一样的chrony时钟源,配置之后可以执行chronyc sources命令检查时间是否同步。

    • 如果显示结果的主OMS节点chrony服务IP地址前有“*”号,表示同步正常,如下:
      MS Name/IP address         Stratum Poll Reach LastRx Last sample               
      ===============================================================================
      ^* 10.10.10.162             10  10   377   626    +16us[  +15us] +/-  308us
    • 如果显示结果的主OMS节点NTP服务IP前无“*”号,且“Reach”项内容为“0”,表示同步不正常。
      MS Name/IP address         Stratum Poll Reach LastRx Last sample               
      ===============================================================================
      ^? 10.1.1.1                      0  10     0     -     +0ns[   +0ns] +/-    0ns

  5. user_client用户登录将要安装客户端的服务器。
  6. 解压软件包。

    进入安装包所在目录,例如“/opt/Bigdata/hadoopclient”。执行如下命令解压安装包到本地目录。

    tar -xvf FusionInsight_Cluster_1_Services_Client.tar

  7. 校验软件包。

    执行sha256sum命令校验解压得到的文件,检查回显信息与sha256文件里面的内容是否一致,例如:

    sha256sum -c FusionInsight_Cluster_1_Services_ClientConfig.tar.sha256

    FusionInsight_Cluster_1_Services_ClientConfig.tar: OK     

  8. 解压获取的安装文件。

    tar -xvf FusionInsight_Cluster_1_Services_ClientConfig.tar

  9. 配置客户端网络连接。

    1. 确保客户端所在主机能与解压目录下“hosts”文件(例如“/opt/Bigdata/hadoopclient/FusionInsight_Cluster_<集群ID>_Services_ClientConfig/hosts”)中所列出的各主机在网络上互通。
    2. 当客户端所在主机不是集群中的节点时,需要在客户端所在节点的“/etc/hosts”文件(更改此文件需要root用户权限)中设置集群所有节点主机名和业务平面IP地址映射,主机名和IP地址请保持一一对应,可执行以下步骤在hosts文件中导入集群的域名映射关系。
      1. 切换至root用户或者其他具有修改hosts文件权限的用户。

        su - root

      2. 进入客户端解压目录。

        cd /opt/Bigdata/hadoopclient/FusionInsight_Cluster_1_Services_ClientConfig

      3. 执行cat realm.ini >> /etc/hosts,将域名映射关系导入到hosts文件中。
    说明:
    • 当客户端所在主机不是集群中的节点时,配置客户端网络连接,可避免执行客户端命令时出现错误。
    • 如果采用yarn-client模式运行Spark任务,请在“客户端安装目录/Spark/spark/conf/spark-defaults.conf”文件中添加参数“spark.driver.host”,并将参数值设置为客户端的IP地址。
    • 当采用yarn-client模式时,为了Spark WebUI能够正常显示,需要在Yarn的主备节点(即集群中的ResourceManager节点)的hosts文件中,配置客户端的IP地址及主机名对应关系。

  10. 进入安装包所在目录,执行如下命令安装客户端到指定目录(绝对路径),例如安装到“/opt/client”目录。

    cd /opt/Bigdata/hadoopclient/FusionInsight_Cluster_1_Services_ClientConfig

    执行./install.sh /opt/client命令,等待客户端安装完成(以下只显示部分屏显结果)。

    The component client is installed successfully
    说明:
    • 如果已经安装的全部服务或某个服务的客户端使用了“/opt/hadoopclient”目录,再安装其他服务的客户端时,需要使用不同的目录。
    • 卸载客户端请删除客户端安装目录。
    • 如果要求安装后的客户端仅能被该安装用户(如“user_client”)使用,请在安装时加“-o”参数,即执行./install.sh /opt/hadoopclient -o命令安装客户端。
    • 如果安装NTP服务器为chrony模式,请在安装时加“chrony”参数,即执行./install.sh /opt/client -o chrony命令安装客户端。
    • 由于HBase使用的Ruby语法限制,如果安装的客户端中包含了HBase客户端,建议客户端安装目录路径只包含大写字母、小写字母、数字以及_-?.@+=字符。
    • 客户端节点为集群外部服务器且此节点无法与主oms节点的业务平面IP互通时或者无法访问主节点的20029端口时,客户端可以正常安装成功,但无法注册到集群中,无法在界面上进行展示。

  11. 检查客户端是否安装成功,请登录客户端。

    1. 执行cd /opt/client命令进入客户端安装目录。
    2. 执行source bigdata_env命令配置客户端环境变量。
    3. 如果集群为安全模式,执行以下命令,设置kinit认证,输入客户端用户登录密码;普通模式集群无需执行用户认证。

      kinit admin

      Password for xxx@HADOOP.COM: #输入admin用户登录密码(与登录集群的用户密码一致)
    4. 输入klist命令查询并确认权限内容。
      Ticket cache: FILE:/tmp/krb5cc_0 
      Default principal: xxx@HADOOP.COM   
      
      Valid starting       Expires              Service principal 
      04/09/2021 18:22:35  04/10/2021 18:22:29  krbtgt/HADOOP.COM@HADOOP.COM
      说明:
      • 使用kinit认证时,票据默认会存放到“/tmp/krb5cc_uid”目录中

        uid表示当前登录操作系统的用户id,例如root用户的uid为0,那么root用户登录系统后使用kinit认证的票据会默认存放在“/tmp/krb5cc_0”

        若当前用户对于“/tmp”目录没有读写权限,则会将票据缓存路径修改为“客户端安装目录/tmp/krb5cc_uid”,例如客户端安装目录为“/opt/hadoopclient”,则kinit认证的票据会存放在“/opt/hadoopclient/tmp/krb5cc_uid”

      • 使用kinit认证时,如果使用相同的用户登录操作系统,则存在票据相互覆盖的风险。可使用-c cache_name参数指定票据缓存位置,或者通过设置KRB5CCNAME环境变量避免该问题。

  12. 集群重装后,之前安装的客户端将不再可用,需要重新部署客户端。

    1. root用户登录客户端所在节点。
    2. 使用以下命令查看客户端所在目录(下例中“/opt/hadoopclient”为客户端所在目录)。

      ll /opt

      drwxr-x---. 6 root root       4096 Dec 11 19:00 hadoopclient 
      drwxr-xr-x. 3 root root       4096 Dec  9 02:04 godi 
      drwx------. 2 root root      16384 Nov  6 01:03 lost+found 
      drwxr-xr-x. 2 root root       4096 Nov  7 09:49 rh 
    3. 使用mv命令移除所有客户端程序所在文件夹内的文件(例如移除“/opt/client”文件夹)。

      mv /opt/client /tmp/clientbackup

    4. 重新安装客户端。

我们使用cookie来确保您的高速浏览体验。继续浏览本站,即表示您同意我们使用cookie。 详情

文档反馈

文档反馈

意见反馈

0/500

标记内容

同时提交标记内容