ALM-50842 StoreWorker写并发占用比例超过阈值
告警解释
系统按30秒周期性检测实例StoreWorker并发写占用比例,当检测到数量超过阈值后产生该告警。
当检测到实例StoreWorker并发写占用比例在阈值内时告警恢复。
告警属性
|
告警ID |
告警级别 |
告警类型 |
业务类型 |
是否可自动清除 |
|---|---|---|---|---|
|
50842 |
次要 |
业务质量告警 |
MemArtsStore |
是 |
告警参数
|
参数名称 |
参数含义 |
|---|---|
|
来源 |
产生告警的集群或系统名称 |
|
服务名 |
产生告警的服务名称 |
|
角色名 |
产生告警的角色名称 |
|
主机名 |
产生告警的主机名 |
对系统的影响
本节点上正在shufflewrite的分区过多,将导致服务器服务效率下降。
可能原因
- 负载倾斜性过大,负载压力过大。
- 节点过少,每个节点压力过大。
处理步骤
检查告警节点的数量占比
- 在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,查看“告警ID”为“50842”的“定位信息”中的角色名并确定实例的IP地址。
- 选择“集群 > 服务 > MemArtsStore > 实例”,计算所告警Worker实例占所有Worker实例的比例。
扩容节点
- 选择“集群 > 服务 > MemArtsStore > 实例”。
- 选择添加实例,添加Worker实例。
- 等待2分钟,查看告警是否自动恢复。
- 是,处理完毕。
- 否,执行步骤 8。
回退成native
- 登录Spark客户端节点,进入目录“/opt/huawei/OneWork/client/Spark/spark/conf”,修改“spark-defaults.conf”文件中的参数spark.shuffle.manager值为sort,如下所示,修改完成后保存退出重新运行任务。
spark.shuffle.manager = sort
- 等待2分钟,查看告警是否自动恢复。
- 是,处理完毕。
- 否,执行步骤 8。
收集故障信息
告警清除
此告警修复后,系统会自动清除此告警,无需手工清除。
参考信息
不涉及。