更新时间:2023-12-07 GMT+08:00
联合计算服务安装
联合计算服务安装全部使用普通用户,执行:su - dce
- 配置相互解析
vi /etc/hosts ip 主机名
- 配置免密登录
ssh-keygen ssh-copyid 主机名
所有节点都需要执行
- 上传dce-union-compute-space-svcs-x.y.m.n.tar.gz安装包到/home/dce
- 解压
tar -zxvf dce-union-compute-space-svcs-x.y.m.n.tar.gz && cd dce-union-compute-space-svcs
- 修改配置文件
vi dce-common.properties
这个配置文件需要与dce-control-plane-data-svcs里面的dce-common.properties完全一致
vi dce-union-compute-space-svrs.properties ##################kafka################## #本机ip地址 local_address=当前节点的ip地址 ######################################### #openspace主机列表,地址之间用英文逗号分隔,可配置1到n台 cluster_list=所有节点的ip地址 #当前机器序号,序号必须唯一,序号从1开始 local_number=1 #kafka kafka_dir=/data/kafka ######################################### ################elasticsearch############ #elasticsearch #es节点内存,最高不能超过31g,最小1g es_heap_size_max=1g es_heap_size_min=1g #集群名(默认为dce-es) cluster_name=dce-es #数据目录路径(默认/data/openspace-es) es_data_dir=/data/openspace-es ########################################## ##################################################################### #hadoop服务器列表(写主机名,以英文逗号分隔,并且需要在/etc/hosts文件中做好解析,相互配置免密登录) server_list=dce-union-compute-space-1,dce-union-compute-space-2,dce-union-compute-space-3 #指定hdfs服务器 hdfs_server=dce-union-compute-space-1 #指定secondarynamenode服务器 secondarynamenode_server=dce-union-compute-space-2 #指定resourcemanager服务器地址 resourcemanager_server=dce-union-compute-space-3 #hadoop内存大小(GB) hadoop_memory_size=8 #yarn虚拟核心数 yarn_vcpu_cores=8 #指定hadoop安装地址(所有服务器安装目录必须一致) hadoop_installdir=/usr/local/hadoop #core-site.xml文件,配置hadoop数据目录 hadoop_datadir=/data/hadoop #hadoop安装用户 hadoop_installuser=dce
- 执行安装脚本
bash ./config-all.sh bash ./install-all.sh bash ./start-all.sh
父主题: DCE软件服务部署