更新时间:2024-09-30 GMT+08:00

HBase数据

当前HBase上可以使用的数据备份方式主要有以下几种方式,本指导为您介绍通过以下几种方式进行HBase数据导出、HBase数据导入的操作步骤。

  • Snapshots
  • Replication
  • Export
  • CopyTable
  • HTable API
  • Offline backup of HDFS data

表1分别从操作对集群的性能影响、数据空间消耗、业务中断影响、增量备份、易用性、可恢复性几个维度进行对比。

表1 HBase上数据备份对比

备份方式

性能影响

数据空间消耗

业务中断影响

增量备份

易用性

可恢复性

Snapshots

短暂中断(仅恢复时)

不支持

Replication

固有

Export

支持

CopyTable

支持

HTable API

支持

取决于用户

Offline backup of HDFS data

-

长时间中断

不支持

Snapshots

对表执行snapshot操作生成快照,既可以作为原表的备份,当原表出现问题的时候可以回滚恢复,也可以作为跨集群的数据备份工具。执行快照会在当前HBase上的根目录(默认为/hbase)生成“ .hbase-snapshot”目录,里面有每个快照的详细信息。当执行ExportSnapshot导出快照时,会在本地提交MR任务,将快照信息以及表的HFile分别拷贝到备集群的/hbase/.hbase-snapshot和/hbase/archive中。详情请参考http://hbase.apache.org/2.2/book.html#ops.snapshots

  • 该方式数据备份的优点:

    单表备份效率高,在线数据本地/远程备份,不中断主集群和备集群业务,可以灵活配置map的个数和限制流量,MapReduce的执行节点可不在主备集群(不占资源)。

  • 该方式数据备份的缺点和限制:

    只能单表操作,备份的表名在snapshot中已经指定无法更改,且无法增量备份,运行MR需要占用本地集群资源。

在主集群执行如下操作:

  1. 对表创建快照。例如对表member创建快照member_snapshot。

    snapshot 'member','member_snapshot'

  2. 将快照拷贝到备集群上。

    hbase org.apache.hadoop.hbase.snapshot.ExportSnapshot -snapshot member_snapshot -copy-to hdfs://备集群HDFS服务主NameNode节点IP:端口号/hbase -mappers 3

    • 备集群的数据目录必须为HBASE根目录(/hbase)
    • mappers表示MR任务需要提交的map个数

在备集群执行如下操作:

使用restore命令在备集群自动新建表,以及与archive里的HFile建立link。

restore_snapshot 'member_snapshot'

如果只是备份表数据的话,建议使用此种方式备份,SnapshotExport会在本地提交MR任务,将Snapshot和HFile拷贝到备集群,之后可以在备集群直接加载数据,效率比其他方式高很多。

Replication

Replication备份是在HBase上建立主备集群的容灾关系,当数据写入主集群,主集群通过WAL来主动push数据到备集群上,从而达到主备集群的实时同步。详情请参考http://hbase.apache.org/2.2/book.html#_cluster_replication

  • 该方式数据备份的优点:
    • 使用replication有有别于其他几种数据备份导入方式,当配置了集群间的主备关系后,数据可以实时同步(无需人为操作)。
    • 相对而言,“备份”的动作占用集群的资源较少,对集群的性能影响小。
    • 数据同步可靠性较高,如果备集群停止一段时间后再恢复,这中间主机群的数据依然会同步到备集群。
  • 该方式数据备份的缺点和限制:
    • 如果客户端写入的数据设置不写WAL,则数据无法备份到备集群。
    • 由于占用的资源少,后台是通过异步的方式同步数据,实际数据没有实时同步。
    • 对于开启表replication同步之前,主集群就已经存在的数据无法同步,需要借助其他方式导入的备集群。
    • bulkload方式写入到主集群的数据无法同步(MRS上的HBase对replication做了增强,支持bulkload on replication)。

具体的使用和配置方法请参考配置HBase备份使用ReplicationSyncUp工具来进行备份数据。

Export/Import

Export/Import主要是启动MapReduce任务对数据的表进行扫描(scan),往远端HDFS写入SequenceFile,之后Import再把SequenceFile读出来写入HBase(put)中。

  • 该方式数据备份的优点:

    在线拷贝不中断业务,由于是scan->put的方式写入新表,所以比CopyTable更加灵活,可灵活配置需要获取的数据,数据可增量写入。

  • 该方式数据备份的缺点和限制:

    由于Export是通过MapReduce任务往远端HDFS写入SequenceFile,之后Import再把SequenceFile读出来写入HBase,需要执行两次MapReduce任务,实际效率不高。

在主集群执行如下操作:

执行Export命令导出表。

hbase org.apache.hadoop.hbase.mapreduce.Export <tablename> <outputdir>

例如:hbase org.apache.hadoop.hbase.mapreduce.Export member hdfs://备集群HDFS服务主NameNode节点IP:端口号/user/table/member

其中,member为待导出表的名称。

在备集群执行如下操作:

  1. 主集群执行完之后可以在备集群上查看生成的目录数据如图1

    图1 目录数据

  2. 执行create命令在备集群上新建与主集群相同结构的表,例如member_import。
  3. 执行Import命令生成HFile数据在HDFS上。

    hbase org.apache.hadoop.hbase.mapreduce.Import <tablename> <inputdir>

    例如:hbase org.apache.hadoop.hbase.mapreduce.Import member_import /user/table/member -Dimport.bulk.output=/tmp/member

    • member_import为备集群上与主集群相同表结构的表
    • Dimport.bulk.output为输出的HFile数据目录
    • /user/table/member为从主集群上导出的数据目录

  4. 执行Load操作将HFile数据写入HBase。

    hbase org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles /tmp/member member

    • /tmp/member为3中HFile数据的输出目录
    • member为备集群上要导入数据的表名

CopyTable

拷贝表功能与导出功能类似,拷贝表也使用HBase API创建了一个MapReduce任务,以便从源表读取数据。不同的地方是拷贝表的输出是hbase中的另一张表,这张表可以在本地集群,也可以在远程集群。详情请参考http://hbase.apache.org/2.2/book.html#copy.table

  • 该方式数据备份的优点:

    操作简单,在线拷贝不中断业务,可以指定备份数据的startrow/endrow/timestamp。

  • 该方式数据备份的缺点和限制:

    只能单表操作,远程拷贝数据量大时效率较低,MapReduce需要占用本地资源,MapReduce的map个数以表region的个数划分。

在备集群执行如下操作:

执行create命令在备集群上新建与主集群相同结构的表,例如member_copy。

在主集群执行如下操作:

执行CopyTable的命令拷贝表。

hbase org.apache.hadoop.hbase.mapreduce.CopyTable [--starttime=xxxxxx] [--endtime=xxxxxx] --new.name=member_copy --peer.adr=server1,server2,server3:2181:/hbase [--families=myOldCf:myNewCf,cf2,cf3] TestTable

  • starttime/endtime为待拷贝数据的时间戳。
  • new.name为备集群中目的表的表名,默认为和原来表名相同。
  • peer.adr为备集群zookeeper节点的信息,格式为quorumer:port:/hbase。
  • families为待拷贝的表的family列。

如果是拷贝数据到远端集群,此种方式导入数据会在主机群上提交MapReduce任务,读取原始表的全量/部分数据之后采用put的方式写入远端集群,所以如果表的数据量很大(远程拷贝不支持bulkload),则效率会比较低。

HTable API

API的方式主要也是在代码中对原始HBase表的数据导入导出,你可以使用公用的API写自己定制的客户端应用程序来直接查询表格,或通过MapReduce任务的批量处理优势自己设计其他方法。该方式需要对Hadoop开发以及因此对生产集群带来的影响有深入的理解。

Offline backup of HDFS data

离线备份HDFS数据,即关闭HBase服务并手工在HDFS上拷贝数据。

  • 该方式数据备份的优点:
    • 可以把主集群上所有数据(包含元数据)整个复制到备集群。
    • 由于是通过distcp直接拷贝的,所以数据备份的效率相对较高。
    • 实际操作时可以根据具体的需求灵活拷贝,可以只拷贝其中一个表的数据,也可以拷贝region中的其中一个hfile等。
  • 该方式数据备份的缺点和限制:
    • 此操作会覆盖备集群上的HDFS的数据目录。
    • 如果主备集群间的HBase版本不同,HDFS目录直接拷贝可能会出现问题,例如MRS上的hbase1.3版本新增了系统表index,如果使用老版本的HDFS目录直接覆盖,会找不到该数据表。所以此种方案在执行前需要慎重考虑。
    • 此操作对用户使用HBase的能力有一定的要求,如出现异常情况需要根据实际情况执行恢复。

在主集群执行如下操作:

  1. 执行如下命令将当前集群内存中的数据持久化到HDFS中。

    flush 'tableName'

  2. 停止HBase服务。
  3. 使用distcp命令拷贝当前集群HDFS上的数据到备集群上。

    hadoop distcp -i /hbase/data hdfs://备集群HDFS服务主NameNode节点IP:端口号/hbase

    hadoop distcp –update –append –delete /hbase/ hdfs://备集群HDFS服务主NameNode节点IP:端口号/hbase/

    第二条命令为增量拷贝除了data目录以外的文件,例如archive里面的数据可能还有被数据目录所引用。

在备集群执行如下操作:

  1. 重启HBase服务,使数据迁移生效。在启动过程中,HBase会加载当前HDFS上的数据并重新生成元数据。
  2. 启动完成后,在Master节点客户端执行如下命令加载HBase表数据。

    $HBase_Home/bin/hbase hbck -fixMeta -fixAssignments

  3. 命令执行完成后,重复执行如下命令查看HBase集群健康状态直至正常。

    hbase hbck

    当用户使用了HBase协处理器,自定义jar包放在主集群的regionserver/hmaster上时,在备集群重启HBase之前,需要把这些自定义jar包也拷贝过来。