更新时间:2023-11-10 GMT+08:00
Spark任务运行失败
问题现象
- 报错显示executor出现OOM。
- 失败的task信息显示失败原因是lost task xxx。
原因分析
- 问题1:一般出现executor OOM,都是因为数据量过大,也有可能是因为同一个executor上面同时运行的task太多。
- 问题2:有些task运行失败会报上述错误。当看到这个报错的时候,需要确认的是丢失的这个task在哪个节点上面运行,一般的情况是这个丢失的task异常退出导致的。
父主题: 使用Spark