Estos contenidos se han traducido de forma automática para su comodidad, pero Huawei Cloud no garantiza la exactitud de estos. Para consultar los contenidos originales, acceda a la versión en inglés.
Centro de ayuda/
MapReduce Service/
Preguntas frecuentes/
Desarrollo del trabajo/
¿Por qué DataArtsStudio ocasionalmente no puede programar trabajos de Spark y la reprogramación también falla?
Actualización más reciente 2023-11-20 GMT+08:00
¿Por qué DataArtsStudio ocasionalmente no puede programar trabajos de Spark y la reprogramación también falla?
Síntoma
DataArtsStudio ocasionalmente no puede programar los trabajos de Spark y la reprogramación también falla. Se muestra la siguiente información de error:
Caused by: org.apache.spark.SparkException: Application application_1619511926396_2586346 finished with failed status
Solución
Inicie sesión en el nodo donde se encuentra el cliente Spark como usuario root y aumente el valor del parámetro spark.driver.memory en el archivo spark-defaults.conf.
Tema principal: Desarrollo del trabajo
Comentarios
¿Le pareció útil esta página?
Deje algún comentario
Muchas gracias por sus comentarios. Seguiremos trabajando para mejorar la documentación.
El sistema está ocupado. Vuelva a intentarlo más tarde.