文档首页/ MapReduce服务 MRS/ 用户指南(安卡拉区域)/ 故障排除/ 使用Spark/ spark-shell执行sql跨文件系统load数据到hive表失败
更新时间:2024-11-29 GMT+08:00

spark-shell执行sql跨文件系统load数据到hive表失败

用户问题

使用spark-shell命令执行sql或者spark-submit提交的spark任务里面有sql的load命令,并且原数据和目标表存储位置不是同一套文件系统,上述两种方式MapReduce任务启动时会报错。

原因分析

当使用load导入数据到hive表的时候,属于需要跨文件系统的情况(例如原数据在hdfs上,而hive表数据存放在obs上),并且文件长度大于阈值(默认32M),则会触发使用distcp的MapReduce任务来执行数据迁移操作。这个MapReduce任务配置直接从spark任务配置里面提取,但是spark任务的net.topology.node.switch.mapping.impl配置项不是hadoop的默认值,需要使用spark的jar包,因此MapReduce会报类找不到。

处理步骤

方案一:

如果文件较小,则可以将默认长度设置得大于文件最大长度,例如最大的文件是95M,则设置:

hive.exec.copyfile.maxsize=104857600

方案二:

如果确实文件较大,需要使用distcp任务来提高数据迁移效率,则可以在spark任务启动的时候增加设置参数:

--conf spark.hadoop.net.topology.node.switch.mapping.impl=org.apache.hadoop.net.ScriptBasedMapping