文档首页/ MapReduce服务 MRS/ 常见问题/ 作业管理类/ DataArts Studio调度Spark作业偶现失败如何处理?
更新时间:2024-07-31 GMT+08:00
分享

DataArts Studio调度Spark作业偶现失败如何处理?

问题现象

DataArts Studio调度spark作业,偶现失败,重跑失败,作业报错:

Caused by: org.apache.spark.SparkException: Application application_1619511926396_2586346 finished with failed status

解决方法

使用root用户登录Spark客户端节点,调高“spark-defaults.conf”文件中“spark.driver.memory”参数值。

相关文档