Estos contenidos se han traducido de forma automática para su comodidad, pero Huawei Cloud no garantiza la exactitud de estos. Para consultar los contenidos originales, acceda a la versión en inglés.
Centro de ayuda> MapReduce Service> Preguntas frecuentes> Desarrollo del trabajo> ¿Por qué DataArtsStudio ocasionalmente no puede programar trabajos de Spark y la reprogramación también falla?
Actualización más reciente 2023-11-20 GMT+08:00

¿Por qué DataArtsStudio ocasionalmente no puede programar trabajos de Spark y la reprogramación también falla?

Síntoma

DataArtsStudio ocasionalmente no puede programar los trabajos de Spark y la reprogramación también falla. Se muestra la siguiente información de error:

Caused by: org.apache.spark.SparkException: Application application_1619511926396_2586346 finished with failed status

Solución

Inicie sesión en el nodo donde se encuentra el cliente Spark como usuario root y aumente el valor del parámetro spark.driver.memory en el archivo spark-defaults.conf.

Desarrollo del trabajo Preguntas frecuentes

more