文档首页> 数据湖探索 DLI> 常见问题> Spark作业相关问题> 运维指导> 为什么Spark jar 作业 一直处于“提交中”?
更新时间:2022-09-29 GMT+08:00
分享

为什么Spark jar 作业 一直处于“提交中”?

Spark jar 作业 一直处于“提交中”可能是队列剩余的CU量不足导致作业无法提交。

查看队列的的剩余步骤如下:

  1. 查看队列CU使用量。

    点击“云监控服务 > 云服务监控 > 数据探索湖 > 队列监控 > 队列CU使用量” 。

  1. 计算剩余CU量。

    队列剩余CU量=队列CU量 - 队列CU使用量。

当队列剩余CU量小于用户提交的CU量,则需要等待资源,才能提交成功。

分享:

运维指导 所有常见问题

more