nodemanager进程 更多内容
  • ALM-18003 NodeManager不健康(2.x及以前版本)

    系统当前指标取值满足自定义的告警设置条件。 对系统的影响 故障的NodeManager节点无法提供Yarn服务。 容器减少,集群性能下降。 可能原因 NodeManager节点所在主机的硬盘空间不足。 NodeManager节点本地目录omm用户无访问权限。 处理步骤 收集故障信息。

    来自:帮助中心

    查看更多 →

  • ALM-18004 NodeManager磁盘可用率低于阈值(2.x及以前版本)

    ALM-18004 NodeManager磁盘可用率低于阈值(2.x及以前版本) 告警解释 系统每30秒周期性检测NodeManager各个节点的可用磁盘空间,并把磁盘可用率和阈值相比较。“NodeManager磁盘可用率”指标默认提供一个阈值范围。当检测到实际“NodeManager磁盘可用率”的值低于阈值范围时产生该告警。

    来自:帮助中心

    查看更多 →

  • 实现Hive进程访问多ZooKeeper

    实现Hive进程访问多ZooKeeper 功能简介 FusionInsight 支持在同一个客户端进程内同时访问FusionInsight ZooKeeper和第三方的ZooKeeper,分别通过“testConnectHive”和“testConnectApacheZK”方法实现。

    来自:帮助中心

    查看更多 →

  • 实现Hive进程访问多ZooKeeper

    实现Hive进程访问多ZooKeeper 功能简介 FusionInsight支持在同一个客户端进程内同时访问FusionInsight ZooKeeper和第三方的ZooKeeper,分别通过“testConnectHive”和“testConnectApacheZK”方法实现。

    来自:帮助中心

    查看更多 →

  • 实现Hive进程访问多ZooKeeper

    实现Hive进程访问多ZooKeeper 功能简介 FusionInsight支持在同一个客户端进程内同时访问FusionInsight ZooKeeper和第三方的ZooKeeper,分别通过“testConnectHive”和“testConnectApacheZK”方法实现。

    来自:帮助中心

    查看更多 →

  • 实现Hive进程访问多ZooKeeper

    实现Hive进程访问多ZooKeeper 功能简介 FusionInsight支持在同一个客户端进程内同时访问FusionInsight ZooKeeper和第三方的ZooKeeper,分别通过“testConnectHive”和“testConnectApacheZK”方法实现。

    来自:帮助中心

    查看更多 →

  • Executor进程Crash导致Stage重试

    Executor进程Crash导致Stage重试 问题 在执行大数据量的Spark任务(如100T的TPCDS测试套)过程中,有时会出现Executor丢失从而导致Stage重试的现象。查看Executor的日志,出现“Executor 532 is lost rpc with driver

    来自:帮助中心

    查看更多 →

  • ALM-14035 HttpFS进程状态异常

    产生告警的主机名。 对系统的影响 进程状态异常会导致该进程无法提供正常服务,进而可能导致服务整体异常。 可能原因 主机中正在等待的IO(磁盘IO、网络IO等)在较长时间内未得到响应,进程处于D状态和Z状态。或进程可能被挂起进入T状态。 处理步骤 查看进程是否处于D、Z、T状态 登录FusionInsight

    来自:帮助中心

    查看更多 →

  • 如何处理SSH tunnel进程异常?

    如何处理SSH tunnel进程异常? 混合云场景下,监控数据通过ssh tunnel跳板机转发至APM时,该进程异常。此时您可以通过以下方式进行处理。 使用远程登录工具登录跳板机。 执行如下命令设置免交互登录。 ssh-keygen cd /root/.ssh/ cat id_rsa

    来自:帮助中心

    查看更多 →

  • 辅助进程投屏初始化

    返回值为辅助进程功能对象 注意事项 在辅助进程中调用,用来获取辅助进程的功能对象。 接口定义 - (instancetype)initWithGroupId:(NSString*)groupId; 父主题: 连接设备

    来自:帮助中心

    查看更多 →

  • Flume服务端进程故障

    Flume服务端进程故障 问题现象 Flume运行一段时间后,Manager界面Flume实例显示运行状态“故障”。 原因分析 Flume文件或文件夹权限异常,重启后Manager界面提示如下信息: [2019-02-26 13:38:02]RoleInstance prepare

    来自:帮助中心

    查看更多 →

  • ALM-14033 ZKFC进程状态异常

    产生告警的主机名。 对系统的影响 进程状态异常会导致该进程无法提供正常服务,进而可能导致服务整体异常。 可能原因 主机中正在等待的IO(磁盘IO、网络IO等)在较长时间内未得到响应,进程处于D状态和Z状态。或进程可能被挂起进入T状态。 处理步骤 查看进程是否处于D、Z、T状态 登录FusionInsight

    来自:帮助中心

    查看更多 →

  • 配置Container日志聚合功能

    yarn.nodemanager.remote-app-log-dir}/${user}/{yarn.nodemanager.remote-app-log-dir-suffix}”。 说明: {user}为运行任务时的用户名。 logs yarn.nodemanager.log-aggregator

    来自:帮助中心

    查看更多 →

  • 配置MRS集群告警阈值

    资源 NodeManager直接内存使用百分比统计 NodeManager直接内存使用百分比统计。 90% NodeManager堆内存使用百分比统计 NodeManager堆内存使用百分比统计。 95% NodeManager非堆内存使用百分比统计 NodeManager非堆内存使用百分比统计。

    来自:帮助中心

    查看更多 →

  • Superior调度模式下,单个NodeManager故障可能导致MapReduce任务失败

    Superior调度模式下,单个NodeManager故障可能导致MapReduce任务失败 问题 在Superior调度模式下,如果出现单个NodeManager故障,可能会导致Mapreduce任务失败。 回答 正常情况下 ,当一个application的单个task的att

    来自:帮助中心

    查看更多 →

  • 配置Container日志聚合功能

    yarn.nodemanager.remote-app-log-dir}/${user}/{yarn.nodemanager.remote-app-log-dir-suffix}”。 说明: {user}为运行任务时的用户名。 logs yarn.nodemanager.log-aggregator

    来自:帮助中心

    查看更多 →

  • Spark与其他组件的关系

    ontainer列表后,会向对应的NodeManager发送信息以启动Container。 ResourceManager分配Container给ApplicationMaster,ApplicationMaster和相关的NodeManager通讯,在获得的Container上

    来自:帮助中心

    查看更多 →

  • Spark2x与其他组件的关系

    ontainer列表后,会向对应的NodeManager发送信息以启动Container。 ResourceManager分配Container给ApplicationMaster,ApplicationMaster和相关的NodeManager通讯,在获得的Container上

    来自:帮助中心

    查看更多 →

  • 连接postgresql或者gaussdb时报错

    解决方案: 报错中type为5时:在每台 MRS NodeManager实例所在节点上移动驱动包“gsjdbc4-*.jar”到“tmp”目录下。 mv ${BIGDATA_HOME}/FusionInsight_HD_*/1_*_NodeManager/install/hadoop/sha

    来自:帮助中心

    查看更多 →

  • 统计资产信息,账号、端口、进程等

    统计资产信息,账号、端口、进程等 功能介绍 资产统计信息,账号、端口、进程等 调用方法 请参见如何调用API。 URI GET /v5/{project_id}/asset/statistics 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String

    来自:帮助中心

    查看更多 →

  • Executor进程Crash导致Stage重试

    Executor进程Crash导致Stage重试 问题 在执行大数据量的Spark任务(如100T的TPCDS测试套)过程中,有时会出现Executor丢失从而导致Stage重试的现象。查看Executor的日志,出现“Executor 532 is lost rpc with driver

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了