文档首页/ 数据湖探索 DLI/ 常见问题/ 队列相关问题/ 运维指导/ 购买了64CU的队列资源,运行Spark作业时如何分配?
更新时间:2022-11-09 GMT+08:00

购买了64CU的队列资源,运行Spark作业时如何分配?

在DLI中,64CU=64core256G。

在对应的Spark作业中,如果Driver占用了4core16G,那么Executor能占用的就是60core 240G。