更新时间:2023-12-07 GMT+08:00
分享

联合计算服务安装

联合计算服务安装全部使用普通用户,执行:su - dce

  1. 配置相互解析

    vi /etc/hosts
    ip 主机名

  2. 配置免密登录

    ssh-keygen
    ssh-copyid 主机名

    所有节点都需要执行

  3. 上传dce-union-compute-space-svcs-x.y.m.n.tar.gz安装包到/home/dce
  4. 解压

    tar -zxvf dce-union-compute-space-svcs-x.y.m.n.tar.gz && cd dce-union-compute-space-svcs

  5. 修改配置文件

    vi dce-common.properties

    这个配置文件需要与dce-control-plane-data-svcs里面的dce-common.properties完全一致

    vi dce-union-compute-space-svrs.properties
    ##################kafka##################
    #本机ip地址
    local_address=当前节点的ip地址
    #########################################
    #openspace主机列表,地址之间用英文逗号分隔,可配置1到n台
    cluster_list=所有节点的ip地址
    #当前机器序号,序号必须唯一,序号从1开始
    local_number=1
    #kafka
    kafka_dir=/data/kafka
    #########################################
    ################elasticsearch############
    #elasticsearch
    #es节点内存,最高不能超过31g,最小1g
    es_heap_size_max=1g
    es_heap_size_min=1g
    #集群名(默认为dce-es)
    cluster_name=dce-es
    #数据目录路径(默认/data/openspace-es)
    es_data_dir=/data/openspace-es
    ##########################################
    #####################################################################
    #hadoop服务器列表(写主机名,以英文逗号分隔,并且需要在/etc/hosts文件中做好解析,相互配置免密登录)
    server_list=dce-union-compute-space-1,dce-union-compute-space-2,dce-union-compute-space-3
    #指定hdfs服务器
    hdfs_server=dce-union-compute-space-1
    #指定secondarynamenode服务器
    secondarynamenode_server=dce-union-compute-space-2
    #指定resourcemanager服务器地址
    resourcemanager_server=dce-union-compute-space-3
    #hadoop内存大小(GB)
    hadoop_memory_size=8
    #yarn虚拟核心数
    yarn_vcpu_cores=8
    #指定hadoop安装地址(所有服务器安装目录必须一致)
    hadoop_installdir=/usr/local/hadoop
    #core-site.xml文件,配置hadoop数据目录
    hadoop_datadir=/data/hadoop
    #hadoop安装用户
    hadoop_installuser=dce

  6. 执行安装脚本

    bash ./config-all.sh
    bash ./install-all.sh
    bash ./start-all.sh

相关文档