文档首页> MapReduce服务 MRS> 故障排除> 使用Hive> MetaStore动态分区数超出阈值导致SQL报错
更新时间:2024-04-24 GMT+08:00
分享

MetaStore动态分区数超出阈值导致SQL报错

现象描述

执行SparkSQL或HiveSQL命令时,系统报错如下:

Number of dynamic partitions created is 2001, which is more than 2000. To slove this try to set hive.exec.max.dynamic.partitions to at least 2001

原因分析

Hive中会默认限制最大动态分区数,由“hive.exec.max.dynamic.partitions”参数控制(默认值为1000)。 如果超过此限制,Hive将不会创建新的动态分区。

处理步骤

  • 调整上层业务,将动态分区数控制在“hive.exec.max.dynamic.partitions”参数值范围内。
  • 执行set hive.exec.max.dynamic.partitions = XXX;命令调大“hive.exec.max.dynamic.partitions”参数值。

    SparkSQL中需要设置“spark.hadoop.hive.exec.max.dynamic.partitions”参数。

分享:

    相关文档

    相关产品