配置Yarn模式下Spark动态资源调度
操作场景
对于Spark应用来说,资源是影响Spark应用执行效率的一个重要因素。当一个长期运行的服务(比如JDBCServer),如果分配给它多个Executor,可是却没有任何任务分配给它,而此时有其他的应用却资源紧张,这就造成了很大的资源浪费和资源不合理的调度。
动态资源调度就是为了解决这种场景,根据当前应用任务的负载情况,实时的增减Executor个数,从而实现动态分配资源,使整个Spark系统更加健康。
操作步骤
- 需要先配置External shuffle service。
使用动态资源调度功能,必须配置External Shuffle Service。
- 登录FusionInsight Manager,选择“集群 > 服务 > Spark2x > 配置 > 全部配置”。在搜索框中输入“spark.dynamicAllocation.enabled”参数名称,将JDBCServer下的该参数值设置为“true”,表示开启动态资源调度功能。
配置项 |
说明 |
取值示例 |
---|---|---|
spark.dynamicAllocation.minExecutors |
最小Executor个数。 当启用动态分配时,Spark会根据作业负载自动调整Executor数量,但始终会保留至少 minExecutors个Executor,以保证基本的计算资源。 |
0 |
spark.dynamicAllocation.initialExecutors |
Spark动态资源分配中用于设定作业启动时初始分配的Executor数量。 |
0 |
spark.dynamicAllocation.maxExecutors |
单个Spark应用程序最多可占用的Executor数量上限。 当启用动态分配时,Spark会根据作业负载自动调整Executor数量,但不会超过该参数设定的值,以此控制资源使用的上限。 |
2048 |
spark.dynamicAllocation.schedulerBacklogTimeout |
Spark动态资源分配中用于控制何时触发Executor扩容。 当等待执行的Task队列长度超过该时间阈值仍未处理时,Spark会请求分配更多的Executor以加速处理。 |
1s |
spark.dynamicAllocation.sustainedSchedulerBacklogTimeout |
Spark 动态资源分配中用于控制持续性扩容Executor 的时间阈值。 当等待执行的Task队列持续积压超过该时间时,Spark会继续增加Executor数量,直到达到maxExecutors。 |
1s |
spark.dynamicAllocation.executorIdleTimeout |
Spark 动态资源分配中用于控制空闲Executor 的超时时间。 当Executor长时间无任务执行时,Spark会将其释放以回收集群资源,避免资源浪费。 |
60s |
spark.dynamicAllocation.cachedExecutorIdleTimeout |
Spark动态资源分配中的用于控制包含cached blocks的Executor空闲超时时间。 与普通Executor不同,这类Executor在空闲时会被保留更长时间,以避免缓存数据丢失导致的重新计算开销。 |
|