文档首页> MapReduce服务 MRS> 常见问题> 作业开发类> DataArts Studio调度Spark作业偶现失败如何处理?
更新时间:2023-10-19 GMT+08:00
分享

DataArts Studio调度Spark作业偶现失败如何处理?

问题现象

DataArts Studio调度spark作业,偶现失败,重跑失败,作业报错:

Caused by: org.apache.spark.SparkException: Application application_1619511926396_2586346 finished with failed status

解决方法

使用root用户登录Spark客户端节点,调高“spark-defaults.conf”文件中“spark.driver.memory”参数值。

分享:

作业开发类 所有常见问题

more