更新时间:2024-11-29 GMT+08:00

Spark应用下修改split值时报错

用户问题

在Spark应用下修改split值时报错。

问题现象

客户需要通过修改一个split最大值来实现多个mapper ,从而达到提速的目的, 但是目前执行set $参数命令修改Hive的配置时报错。

0: jdbc:hive2://192.168.1.18:21066/> set mapred.max.split.size=1000000;
Error: Error while processing statement: Cannot nodify mapred.max.split.size at runtime. It is not in list of params that are allowed to be modified at runtime( state=42000,code=1)

原因分析

  • 在安全模式下配置白名单启停参数hive.security.whitelist.switch时,需要运行的参数必须在hive.security.authorization.sqlstd.confwhitelist 中配置。

  • 默认白名单中没有包含mapred.max.split.size参数,所以运行的时候会提示不允许。

处理步骤

  1. 登录FusionInsight Manager页面,选择“服务 > Hive > 配置 > 全部配置”。
  2. 搜索hive.security.authorization.sqlstd.confwhitelist.append,把mapred.max.split.size加进hive.security.authorization.sqlstd.confwhitelist.append中。
  3. 修改完成后,保存配置,重启Hive组件。
  4. 执行set mapred.max.split.size=1000000;,系统不再报错,则表示修改成功。