apache安装配置 更多内容
  • 使用DBeaver访问Phoenix

    将“ZooKeeper Base Path”值配置到URL模板中,即在原有的URL地址后面增加“:/hbase”即可,并单击确定: 图9 配置URL模板 配置EIP。如果本地Windows与集群之间网络不通,需要为每个HBase节点以及ZooKeeper节点配置EIP,并且在本地Windows

    来自:帮助中心

    查看更多 →

  • 开启Oozie HA机制

    服务 > Oozie > 配置 > 全部配置”,在“自定义”的“oozie.site.configs”参数中添加如下四个配置项。修改完成后单击“保存”,在弹框中单击“确定”保存配置。 名称 值 参数说明 oozie.services.ext org.apache.oozie.service

    来自:帮助中心

    查看更多 →

  • 配置OpenTSDB参数

    若当前运行环境与OpenTSDB安装环境处于同一个VPC网络中,使用连接的TSD实例IP或主机名均可。 若当前运行环境与OpenTSDB安装环境位于不同VPC中,仅可使用主机名进行访问。同时需在连接的TSD实例上绑定EIP,并把该EIP及该TSD实例的主机名配置到hosts中,linux

    来自:帮助中心

    查看更多 →

  • 提交Spark任务时报错“ClassNotFoundException”

    on: org.apache.phoenix.filter.SingleCQKeyValueComparisonFilter 原因分析 用户配置的默认路径不正确。 处理步骤 登录任意Master节点。 修改Spark客户端目录下的配置文件。 执行vim 客户端安装目录/Spark

    来自:帮助中心

    查看更多 →

  • 部署安装

    部署安装 配置文件许可 远程登录 弹性云服务器 ,在根目录/opt下新建文件夹: mikdir /opt/SuperMap/License 上传许可文件至此目录下 启动及停止iServer服务 将获取到的 SuperMap iPortal 安装包复制到 Linux 操作系统计算机的某个目录下(建议安装路径为英文目录,例如

    来自:帮助中心

    查看更多 →

  • 安装部署

    安装部署 安装包解压 将获取到的pie-engine-factory安装包复制到 Linux 操作系统计算机的某个目录下,例如 /home/PieEngine/下,执行以下命令进入该目录: cd /home/PieEngine/ 执行如下命令进行解压。 tar -zxvf 文件名

    来自:帮助中心

    查看更多 →

  • 安装部署

    安装部署 华为云解决方案 混合云解决方案 父主题: HSS多云纳管部署

    来自:帮助中心

    查看更多 →

  • 安装部署

    安装部署 Backint Agent安装 配置Backint Agent (可选)升级Backint Agent 父主题: SAP Backint安装指南

    来自:帮助中心

    查看更多 →

  • Apache Dubbo反序列化漏洞

    Firewall,WAF)提供了对该漏洞的防护。 影响的版本范围 漏洞影响的Apache Dubbo产品版本包括: 2.7.0~2.7.4、2.6.0~2.6.7、2.5.x的所有版本。 安全版本 Apache Dubbo 2.7.5版本。 解决方案 建议您将Apache Dubbo升级到2.7.5版本。 如果您

    来自:帮助中心

    查看更多 →

  • 安装部署

    安装部署 安装包解压 将获取到的pie-engine-studio安装包复制到 Linux 操作系统计算机的某个目录下,例如 /home/PieEngine/下,执行以下命令进入该目录: cd /home/PieEngine/ 执行如下命令进行解压 tar -zxvf 文件名.tar

    来自:帮助中心

    查看更多 →

  • 手工搭建Drupal网站(Linux)

    其中,“user”为刚刚创建的数据库用户名。 安装Drupal。 浏览器访问“http:// 服务器 IP地址/drupal”进入安装向导。 选择语言为简体中文后单击“Save and continue”。 选择标准安装方式,单击“保存并继续”。 填写已配置完成的数据库信息,单击“保存并继续”。 自动安装完成后进入网

    来自:帮助中心

    查看更多 →

  • 使用Livy提交Spark Jar作业

    使用root用户登录E CS 服务器,执行以下命令安装 DLI Livy工具。 执行以下命令创建工具安装路径。 mkdir livy安装路径 例如新建路径/opt/livy:mkdir /opt/livy。后续操作步骤均默认以/opt/livy安装路径演示,请根据实际情况修改。 解压工具压缩包到安装路径。 tar --extract

    来自:帮助中心

    查看更多 →

  • 安装部署

    Scripts 配置及脚本 1) Global.yaml:配置服务器节点的必要参数 2) Check-env.sh:部署前环境检查工作 3) Install-kubernetesinstall.sh:安装基础环境脚本 4) Auto-service.sh:完成产品一键部署 MENIFEST

    来自:帮助中心

    查看更多 →

  • 部署安装

    部署安装 配置文件许可 远程登录弹性 云服务器 ,在根目录/opt下新建文件夹: mikdir /opt/SuperMap/License 上传许可文件至此目录下。 安装依赖库 将获取到的 SuperMap iServer 安装包复制到 Linux 操作系统计算机的某个目录下,例如 /home/map/SuperMap

    来自:帮助中心

    查看更多 →

  • 部署安装

    tar.gz 配置环境 进入解压后的目录 cd supermap-imanager-for-kubernetes 打开配置环境变量,所有变量均设有默认值,可保持不变或根据实际环境更改,配置完成后保存并退出 sudo vi .env 图1 配置环境 执行部署命令,安装iManager

    来自:帮助中心

    查看更多 →

  • activemq安装

    activemq安装 上传activemq安装包 表1 上传activemq安装安装服务器 gx01节点 程序名称 activemq 上传路径 /opt/ 程序安装路径 usr/local/activemq 安装步骤 在gx01节点、gx02和gx03三个节点对应的服务器分别执行下列步骤。

    来自:帮助中心

    查看更多 →

  • Livy部署

    Livy部署 前置条件说明 JDK先配置好(1.8) 安装大数据组件客户端(HDFS\YARN\HIVE\SPARK) 安装机器 前提 CDH中需要有两个Hadoop集群,每个集群下部署一个livy (CDH机器允许部署的情况) CDH机器不允许部署的情况,参考https://deepexi

    来自:帮助中心

    查看更多 →

  • Spark对接OBS

    Spark对接OBS 概述 Apache Spark是专为大规模数据处理而设计的快速通用的计算引擎。 前提条件 已安装Hadoop,具体请参见Hadoop对接OBS。 注意事项 为了减少日志输出,在/opt/spark-2.3.3/conf/log4j.properties文件中增加配置: log4j

    来自:帮助中心

    查看更多 →

  • Flink故障排除

    Manager与Application Master(简称AM)。 如果用户安装安全集群需要使用kerberos认证和security cookie认证。根据日志提示,发现配置文件中“security.kerberos.login.keytab :”配置项错误,未进行安全配置。 解决方法如下: 从 MRS 上下载用户的

    来自:帮助中心

    查看更多 →

  • 运行HBase应用开发程序产生异常如何处理

    运行HBase应用开发程序产生异常如何处理 提示信息包含org.apache.hadoop.hbase.ipc.controller.ServerRpcControllerFactory的解决办法 检查应用开发工程的配置文件hbase-site.xml中是否包含配置项hbase.rpc.controllerfactory

    来自:帮助中心

    查看更多 →

  • 安装Spark

    安装Spark 前提条件 您需要准备一台可访问公网的Linux机器,节点规格建议为4U8G及以上。 配置JDK 以CentOS系统为例,安装JDK 1.8。 查询可用的JDK版本。 yum -y list java* 选择安装JDK 1.8。 yum install -y java-1

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了