apache 配置主机头 更多内容
  • 修改集群组件鉴权配置开关

    S中的目录和文件的属、属组以及权限信息保持不变。 单击“保存”,单击“确定”。 等待界面提示操作完成。 开启Yarn鉴权 登录 FusionInsight Manager。 选择“集群 > 待操作集群的名称 > 服务 > Yarn > 配置”。 单击“全部配置”。 搜索参数“yarn

    来自:帮助中心

    查看更多 →

  • beeline客户端报错“Failed to execute session hooks: over max connections”

    Hive > 配置 > 全部配置”。 搜索hive.server.session.control.maxconnections配置项,并修改hive.server.session.control.maxconnections配置的值到合适值,不能超过1000。 保存配置并重启受影响的服务或者实例。

    来自:帮助中心

    查看更多 →

  • 输入文件数超出设置限制导致任务执行失败

    服务 > Hive > 配置 > 全部配置”。 搜索hive.mapreduce.input.files2memory配置项,并修改hive.mapreduce.input.files2memory配置的值到合适值,根据实际内存和任务情况对此值进行调整。 保存配置并重启受影响的服务或者实例。

    来自:帮助中心

    查看更多 →

  • 如何采用Java命令提交Spark应用

    $exitCode") } 根据业务逻辑,开发对应的Spark应用程序,并设置用户编写的Spark应用程序的类等常数。 如果您使用的是普通模式,准备业务应用代码及其相关配置即可。 调用org.apache.spark.launcher.SparkLauncher.launch()方法,将用户的应用程序提交。

    来自:帮助中心

    查看更多 →

  • Apache Log4j2 远程代码执行漏洞(CVE-2021-44228)修复指导

    cript/get_harole.sh 现有集群节点安装补丁 将“ MRS _Log4j_Patch.tar.gz”上传至 OMS 节点的“/home/omm”目录下。具体可参考如何上传本地文件到集群内节点?。 使用root用户登录OMS节点,修改补丁工具相应权限,切到omm用户下,并解压补丁工具至当前目录。

    来自:帮助中心

    查看更多 →

  • HBase本地二级索引介绍

    HBase表启动容灾之后,集群新建二级索引,索引表变更不会自动同步到备集群。要实现该容灾场景,必须执行以下操作: 在主表创建二级索引之后,需要在备集群使用相同方法创建结构、名称完全相同的二级索引。 在集群手动将索引列族(默认是d)的REPLICATION_SCOPE值设置为1。 配置HBase本地二级索引

    来自:帮助中心

    查看更多 →

  • 用户授权

    ”的可读权限。 grant 'hbase_xxx$test_xxx' ,'R', 'test' 用户名$租户名:“租户名”为IAM账号中的账号,“用户名”为IAM账号中的子账户。 权限:有READ('R')、WRITE('W')、CREATE('C')、ADMIN('A')、EXEC('X')三种权限。

    来自:帮助中心

    查看更多 →

  • 集群部署(主备NFS Server)

    集群部署(主备NFS Server)部署如图1所示。各部分的组成说明,与集群部署(单NFS Server)一样,另外还有如下说明:两台NFS Server组成了集群,向SAP HANA集群提供文件共享服务。部署流程如图2所示。

    来自:帮助中心

    查看更多 →

  • MapReduce日志介绍

    jhs-haCheck.log MR实例备状态检查日志。 yarn-start-stop.log MR服务启停操作日志。 yarn-prestart.log MR服务启动前集群操作的记录日志。 yarn-postinstall.log MR服务安装后启动前的工作日志。 yarn-cleanup

    来自:帮助中心

    查看更多 →

  • MapReduce日志介绍

    jhs-haCheck.log MR实例备状态检查日志。 yarn-start-stop.log MR服务启停操作日志。 yarn-prestart.log MR服务启动前集群操作的记录日志。 yarn-postinstall.log MR服务安装后启动前的工作日志。 yarn-cleanup

    来自:帮助中心

    查看更多 →

  • 批量写入Hudi表

    择合适的分区方式,接下来将详细介绍Hudi如何配置各种分区类型。 多级分区 多级分区即指定多个字段为分区键,需要注意的配置项: 配置项 说明 hoodie.datasource.write.partitionpath.field 配置为多个分区字段,例如:p1,p2,p3。 hoodie

    来自:帮助中心

    查看更多 →

  • 从零开始使用Spark

    登录Manager页面,选择“服务管理 > Yarn > ResourceManager WebUI > ResourceManager ()”进入Yarn界面。 单击“作业实际编号”对应ID。 图4 Yarn界面 单击作业日志中的“Logs”。 图5 sparkPi作业日志 单击“here”获取更详细日志。

    来自:帮助中心

    查看更多 →

  • 执行角色实例主备倒换

    执行角色实例备倒换 操作场景 部分服务的角色以备高可用的模式进行部署,在需要对实例进行维护不能提供服务,或者其他维护需要时,可以手动触发实例备倒换。 操作步骤 登录FusionInsight Manager。 选择“集群 > 待操作集群的名称 > 服务”。 单击服务视图中指定的服务名称。

    来自:帮助中心

    查看更多 →

  • 批量写入Hudi表

    datasource.write.keygenerator.class 默认配置为org.apache.hudi.keygen.SimpleKeyGenerator ,也可以不配置配置为org.apache.hudi.keygen.ComplexKeyGenerator。 hoodie

    来自:帮助中心

    查看更多 →

  • DDM到DDM单主灾备

    灾备实例信息 图2 灾备实例信息 表5 灾备实例信息 参数 描述 灾备类型 选择“单灾备”。 灾备类型可以为“单灾备”和“双灾备”。选择双灾备时,默认创建两个子任务,分别为正向和反向灾备任务。 说明: “双灾备”目前仅支持白名单用户,需要提交工单申请才能使用。您可以在管理控制台右上角,选择“工单

    来自:帮助中心

    查看更多 →

  • Flink客户端执行命令报错“Could not connect to the leading JobManager”

    SSL通信加密,修改客户端配置文件“conf/flink-conf.yaml”。 security.ssl.enabled: false 方法2: 开启Flink SSL通信加密,security.ssl.enabled 保持默认。 正确配置SSL: 配置keystore或trus

    来自:帮助中心

    查看更多 →

  • 如何采用Java命令提交Spark应用

    } 根据业务逻辑,开发对应的Spark应用程序。并设置用户编写的Spark应用程序的类等常数。准备业务应用代码及其相关配置。不同场景的示例请参考开发Spark应用。 调用org.apache.spark.launcher.SparkLauncher.launch()方法,将用户的应用程序提交。

    来自:帮助中心

    查看更多 →

  • 执行join操作时localtask启动失败

    会导致启动localtask失败。 解决办法 进入Hive服务配置页面: MRS 3.x之前版本,单击集群名称,登录集群详情页面,选择“组件管理 > Hive > 服务配置”,单击“基础配置”下拉菜单,选择“全部配置”。 如果集群详情页面没有“组件管理”页签,请先完成IAM用户同

    来自:帮助中心

    查看更多 →

  • 如何确认主备管理节点

    如何确认备管理节点 操作场景 部分运维操作的脚本与命令需要或只支持在主管理节点上运行。用户可以通过登录Master节点或登录Manager(仅适用于MRS 3.x及之后版本)确认集群的备管理节点(即备OMS节点)。 在备模式下,由于Master1和Master2之间会切换

    来自:帮助中心

    查看更多 →

  • Flink客户端执行命令报错“Error while parsing YAML configuration file : security.kerberos.login.principal:pippo”

    Cli.java:482) 原因分析 配置文件“flink-conf.yaml”中配置项格式错误。 security.kerberos.login.principal:pippo 解决办法 修改“flink-conf.yaml”中配置配置项名称和值之间存在一个空格。 security

    来自:帮助中心

    查看更多 →

  • 如何在导入Hive表时指定输出的文件压缩格式?

    当前Hive支持以下几种压缩格式: org.apache.hadoop.io.compress.BZip2Codec org.apache.hadoop.io.compress.Lz4Codec org.apache.hadoop.io.compress.DeflateCodec org.apache.hadoop

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了