更新时间:2024-08-06 GMT+08:00
DataArts Studio调度Spark作业偶现失败如何处理?
问题现象
DataArts Studio调度spark作业,偶现失败,重跑失败,作业报错:
Caused by: org.apache.spark.SparkException: Application application_1619511926396_2586346 finished with failed status
解决方法
使用root用户登录Spark客户端节点,调高“spark-defaults.conf”文件中“spark.driver.memory”参数值。
父主题: 作业管理类