更新时间:2024-11-22 GMT+08:00
Spark Job对应的运行日志保存在哪里?
问:
Spark Job对应的运行日志保存在哪里?
答:
- Spark Job没有完成的任务日志保存在Core节点的“/srv/BigData/hadoop/data1/nm/containerlogs/”目录内。
- Spark Job完成的任务日志保存在HDFS的“/tmp/logs/用户名/logs”目录内。
父主题: 作业管理类
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
问:
Spark Job对应的运行日志保存在哪里?
答: