文档首页/ 数据湖探索 DLI/ 常见问题/ Spark作业相类/ Spark作业开发类/ 为什么Spark jar 作业 一直处于“提交中”?
更新时间:2024-11-06 GMT+08:00
分享

为什么Spark jar 作业 一直处于“提交中”?

Spark jar 作业 一直处于“提交中”可能是队列剩余的CU量不足导致作业无法提交。

查看队列的的剩余步骤如下:

  1. 查看队列CU使用量。

    点击“云监控服务 > 云服务监控 > 数据探索湖 > 队列监控 > 队列CU使用量” 。

  1. 计算剩余CU量。

    队列剩余CU量=队列CU量 - 队列CU使用量。

当队列剩余CU量小于用户提交的CU量,则需要等待资源,才能提交成功。

相关文档