文档首页> 数据湖探索 DLI> 常见问题> 队列相关问题> 运维指导> 购买了64CU的队列资源,运行Spark作业时如何分配?
更新时间:2022-09-29 GMT+08:00
分享

购买了64CU的队列资源,运行Spark作业时如何分配?

在DLI中,64CU=64core256G。

在对应的Spark作业中,如果Driver占用了4core16G,那么Executor能占用的就是60core 240G。

分享:

运维指导 所有常见问题

more