Kafka数据迁移概述
Kafka迁移指将生产与消费消息的客户端切换成连接新Kafka,部分还涉及将持久化的消息文件迁移到新的Kafka。主要涉及到以下2类场景:
- 业务上云且不希望业务有中断。
- 在云上变更业务部署。
约束与限制
- 使用Smart Connect迁移业务,会对源端Kafka进行消费,对目标端Kafka进行生产,会占用源端和目标端Kafka的带宽。
- 出于性能考虑,Smart Connect实时同步源端和目标端的数据,但是消费进度是通过批处理同步的,可能会导致源端和目标端每个分区的消费进度存在0-100之间的差异。
迁移准备
- 配置网络环境。
Kafka实例分内网地址以及公网地址两种网络连接方式。如果使用公网地址,则消息生成与消费客户端需要有公网访问权限,并配置如下安全组。
表1 安全组规则 方向
协议
端口
源地址
说明
入方向
TCP
9094
Kafka客户端所在的IP地址或地址组
通过公网访问Kafka(明文接入)。
入方向
TCP
9095
Kafka客户端所在的IP地址或地址组
通过公网访问Kafka(密文接入)。
- 创建目标Kafka实例。
目标Kafka的规格不能低于原业务使用的Kafka规格。具体请参考购买Kafka实例。
- 在目标Kafka实例中创建Topic。
在目标Kafka实例上创建与原Kafka实例相同配置的Topic,包括Topic名称、副本数、分区数、消息老化时间,以及是否同步复制和落盘等。具体请参考创建Kafka Topic。
迁移方案一:先迁生产,再迁消费
指先将生产消息的业务迁移到新的Kafka,原Kafka不会有新的消息生产。待原有Kafka实例的消息全部消费完成后,再将消费消息业务迁移到新的Kafka,开始消费新Kafka实例的消息。
本方案为业界通用的迁移方案,操作步骤简单,迁移过程由业务侧自主控制,整个过程中消息不会存在乱序问题,适用于对消息顺序有要求的场景。但是该方案中需要等待消费者业务直至消费完毕,存在一个时间差的问题,部分数据可能存在较大的端到端时延。
迁移方案二:同时消费,后迁生产
指消费者业务启用多个消费客户端,分别向原Kafka和新Kafka实例消费消息,然后将生产业务切到新Kafka实例,这样能确保所有消息都被及时消费。
本方案中消费业务会在一段时间内同时消费原Kafka和新Kafka实例。由于在迁移生产业务之前,已经有消费业务运行在新Kafka实例上,因此不会存在端到端时延的问题。但在迁移生产的开始阶段,同时消费原Kafka与新Kafka实例,会导致部分消息之间的生产顺序无法保证,存在消息乱序的问题。此场景适用于对端到端时延有要求,却对消息顺序不敏感的业务。
- 启动新的消费客户端,配置Kafka连接地址为新Kafka实例的连接地址,消费新Kafka实例中的数据。
原有消费客户端需继续运行,消费业务同时消费原Kafka与新Kafka实例的消息。
- 修改生产客户端,Kafka连接地址改为新Kafka实例的连接地址。
- 重启生产客户端,将生产业务迁移到新Kafka实例中。
- 生产业务迁移后,观察连接新Kafka实例的消费业务是否正常。
- 等待原Kafka中数据消费完毕,关闭原有消费业务客户端。
- 迁移结束。
迁移方案三:先迁消费,再迁生产
指首先通过Smart Connect同步两个Kafka的消息,其次将消费端迁移到新Kafka,最后将生产端迁移到新Kafka。
本方案依赖于Smart Connect,Smart Connect实时同步源端和目标端的数据,但是消费进度是通过批处理同步的,可能会导致源端和目标端每个分区的消费进度存在0-100之间的差异,存在少量重复消费问题。此场景适用于生产端不可停止,端到端有时延要求,但是可以兼容少量重复消费的业务。
- 创建Kafka数据复制的Smart Connect任务,用于同步两个Kafka的消息。具体步骤请参见配置Kafka间的数据复制。
- 在Kafka控制台的“消息查询”页面,查看两个Kafka的最新消息是否一致,确认两个Kafka的同步进度是否一致。具体步骤请参见查看Kafka消息。
- 将消费客户端的Kafka连接地址修改为新Kafka实例的连接地址。
- 重启消费业务,使得消费者从新Kafka实例中消费消息。
- 观察消费者是否能正常从新Kafka实例中获取数据。
- 修改生产客户端,Kafka连接地址改为新Kafka实例的连接地址。
- 重启生产客户端,将生产业务迁移到新Kafka实例中。
- 生产业务迁移后,观察连接新Kafka实例的消费业务是否正常。
- 迁移结束。
常见问题:如何将持久化数据也一起迁移
如果需要将原Kafka的已消费数据也迁移到Kafka实例,可以使用Smart Connect工具,模拟成原Kafka的消费客户端,以及新Kafka实例的生产客户端,将Kafka所有消息数据迁移到新的Kafka实例,具体步骤请参考配置Kafka间的数据复制。
需要注意的是,云上Kafka实例为3副本存储,因此建议实例存储空间为原业务的单副本消息存储的3倍。