更新时间:2024-10-16 GMT+08:00
分享

配置Hive读取Hudi表

Hudi表对应的Hive外部表介绍

Hudi源表对应一份HDFS的数据,通过Spark组件、Flink组件或者Hudi客户端,可以将Hudi表的数据映射为Hive外部表,基于该外部表,Hive可以进行实时视图查询、读优化视图查询以及增量视图查询。

  • 根据Hudi源表的类型的不同,提供不同的视图查询:
    • Hudi源表类型为Copy On Write时,可以映射为Hive的一张外部表,该表可以提供实时视图查询以及增量视图查询。
    • Hudi源表类型为Merge On Read时,可以映射为Hive的两张外部表(ro表和rt表),ro表提供读优化视图查询,rt表提供实时视图查询以及增量视图查询。
  • 不能对Hudi表映射的Hive外部表做增删改操作(即insert、update、delete、load、merge、alter、msck),只支持查询操作(select)。
  • 表授权:不支持修改类权限(update、Alter、write、All)。
  • 备份与恢复:由于ro表和rt表均由同一个Hudi源表映射的,备份其中一张表,另一张也会跟着备份,恢复也是同时恢复的,因此只需备份其中一张表即可。
  • 组件版本:
    • Hive:FusionInsight_HD_xxx,Hive内核版本3.1.0。
    • Spark2x:FusionInsight_Spark2x_xxx,Hudi内核版本:0.11.0。

创建Hudi表对应的Hive外部表

Hudi表数据在入湖的时候一般会同步到Hive外部表,此时在Beeline中可以直接查询到对应的Hive外部表,如果没有同步到Hive外部表,则可以通过Hudi客户端工具手动同步,具体步骤可参考将Hudi表数据同步到Hive

查询Hudi表对应的Hive外部表

使用Hive对Hudi表进行增量查询前,需要设置表1的3个参数,这3个参数是表级别的参数,每个Hudi源表都对应3个参数,其中hudisourcetablename表示Hudi源表的表名(注意不是Hive外部表的表名),需根据实际情况进行修改。

表1 参数说明

参数名

默认值

描述

hoodie.hudisourcetablename.consume.mode

Hudi表的查询模式。

  • 增量查询:INCREMENTAL。
  • 非增量查询:不设置或者设为“SNAPSHOT”。

hoodie.hudisourcetablename.consume.start.timestamp

Hudi表增量查询的起始时间。

  • 增量查询:增量查询的起始时间。
  • 非增量查询:不设置。

hoodie.hudisourcetablename.consume.max.commits

Hudi表增量查询基于“hoodie.hudisourcetablename.consume.start.timestamp”之后commit的次数。

  • 增量查询:提交次数,如设置为3时,代表增量查询从指定的起始时间之后commit 3次的数据,设为-1时,增量查询从指定的起始时间之后提交的所有数据。
  • 非增量查询:不设置。

Hudi表查询操作如下:

  1. 以Hive客户端安装用户登录安装客户端的节点。
  2. 执行以下命令,切换到客户端安装目录,配置环境变量并认证用户。

    cd 客户端安装目录

    source bigdata_env

    kinit Hive业务用户(如果集群未开启Kerberos认证,请跳过该操作)

  3. 执行以下命令登录Hive客户端。

    beeline

  4. Hudi表查询。

    • Copy On Write类型Hudi表查询

      例如cow类型的Hudi源表的表名为hudicow,映射为Hive外部表的表名为hudicow。

      • cow表实时视图查询:

        select * from hudicow;

      • cow表增量查询:需要根据Hudi源表的表名设置3个增量查询参数,且增量查询语句的where子句必须包含“`_hoodie_commit_time`>'xxx'”,其中的xxx为“hoodie.hudisourcetablename.consume.start.timestamp”增量参数的值:

        set hoodie.hudicow.consume.mode= INCREMENTAL;

        set hoodie.hudicow.consume.max.commits=3;

        set hoodie.hudicow.consume.start.timestamp= 20200427114546;

        select count(*) from hudicow where `_hoodie_commit_time`>'20200427114546';

    • Merge On Read类型Hudi表的查询

      例如mor类型的Hudi源表的表名为hudimor,映射为两张Hive外部表hudimor_ro(ro表)和hudimor_rt(rt表)。

      • ro表提供读读优化视图查询:

        select * from hudicow_ro;

      • rt的实时视图查询:

        select * from hudicow_rt;

      • rt表的增量查询:需要根据Hudi源表的表名设置3个增量查询参数,且增量查询语句的where子句必须包含“`_hoodie_commit_time`>'xxx'”,其中的xxx为“hoodie.hudisourcetablename.consume.start.timestamp”增量参数的值:

        set hoodie.hudimor.consume.mode=INCREMENTAL;

        set hoodie.hudimor.consume.max.commits=-1;

        set hoodie.hudimor.consume.start.timestamp=20210207144611;

        select * from hudimor_rt where `_hoodie_commit_time`>'20210207144611';

        set hoodie.hudisourcetablename.consume.mode=INCREMENTAL;仅用于该表的增量查询模式,如果要对该表切换为其他查询模式,应设置set hoodie.hudisourcetablename.consume.mode=SNAPSHOT;

查询Hudi的Schema演进表对应的Hive外部表

如果该Hudi表为Schema演进表(表的字段执行过修改),则Hive客户端查询该表还需额外设置一个参数:

set hive.exec.schema.evolution=true;

例如以cow表实时视图的查询举例,其他各个视图的查询都要额外添加该参数:

set hive.exec.schema.evolution=true;

select * from hudicow;

相关文档