计算
弹性云服务器 ECS
Flexus云服务
裸金属服务器 BMS
弹性伸缩 AS
镜像服务 IMS
专属主机 DeH
函数工作流 FunctionGraph
云手机服务器 CPH
Huawei Cloud EulerOS
网络
虚拟私有云 VPC
弹性公网IP EIP
虚拟专用网络 VPN
弹性负载均衡 ELB
NAT网关 NAT
云专线 DC
VPC终端节点 VPCEP
云连接 CC
企业路由器 ER
企业交换机 ESW
全球加速 GA
安全与合规
安全技术与应用
Web应用防火墙 WAF
企业主机安全 HSS
云防火墙 CFW
安全云脑 SecMaster
DDoS防护 AAD
数据加密服务 DEW
数据库安全服务 DBSS
云堡垒机 CBH
数据安全中心 DSC
云证书管理服务 CCM
边缘安全 EdgeSec
态势感知 SA
威胁检测服务 MTD
CDN与智能边缘
内容分发网络 CDN
CloudPond云服务
智能边缘云 IEC
迁移
主机迁移服务 SMS
对象存储迁移服务 OMS
云数据迁移 CDM
迁移中心 MGC
大数据
MapReduce服务 MRS
数据湖探索 DLI
表格存储服务 CloudTable
云搜索服务 CSS
数据接入服务 DIS
数据仓库服务 GaussDB(DWS)
数据治理中心 DataArts Studio
数据可视化 DLV
数据湖工厂 DLF
湖仓构建 LakeFormation
企业应用
云桌面 Workspace
应用与数据集成平台 ROMA Connect
云解析服务 DNS
专属云
专属计算集群 DCC
IoT物联网
IoT物联网
设备接入 IoTDA
智能边缘平台 IEF
用户服务
账号中心
费用中心
成本中心
资源中心
企业管理
工单管理
国际站常见问题
ICP备案
我的凭证
支持计划
客户运营能力
合作伙伴支持计划
专业服务
区块链
区块链服务 BCS
Web3节点引擎服务 NES
解决方案
SAP
高性能计算 HPC
视频
视频直播 Live
视频点播 VOD
媒体处理 MPC
实时音视频 SparkRTC
数字内容生产线 MetaStudio
存储
对象存储服务 OBS
云硬盘 EVS
云备份 CBR
存储容灾服务 SDRS
高性能弹性文件服务 SFS Turbo
弹性文件服务 SFS
云硬盘备份 VBS
云服务器备份 CSBS
数据快递服务 DES
专属分布式存储服务 DSS
容器
云容器引擎 CCE
容器镜像服务 SWR
应用服务网格 ASM
华为云UCS
云容器实例 CCI
管理与监管
云监控服务 CES
统一身份认证服务 IAM
资源编排服务 RFS
云审计服务 CTS
标签管理服务 TMS
云日志服务 LTS
配置审计 Config
资源访问管理 RAM
消息通知服务 SMN
应用运维管理 AOM
应用性能管理 APM
组织 Organizations
优化顾问 OA
IAM 身份中心
云运维中心 COC
资源治理中心 RGC
应用身份管理服务 OneAccess
数据库
云数据库 RDS
文档数据库服务 DDS
数据管理服务 DAS
数据复制服务 DRS
云数据库 GeminiDB
云数据库 GaussDB
分布式数据库中间件 DDM
数据库和应用迁移 UGO
云数据库 TaurusDB
人工智能
人脸识别服务 FRS
图引擎服务 GES
图像识别 Image
内容审核 Moderation
文字识别 OCR
AI开发平台ModelArts
图像搜索 ImageSearch
对话机器人服务 CBS
华为HiLens
视频智能分析服务 VIAS
语音交互服务 SIS
应用中间件
分布式缓存服务 DCS
API网关 APIG
微服务引擎 CSE
分布式消息服务Kafka版
分布式消息服务RabbitMQ版
分布式消息服务RocketMQ版
多活高可用服务 MAS
事件网格 EG
企业协同
华为云会议 Meeting
云通信
消息&短信 MSGSMS
云生态
合作伙伴中心
云商店
开发者工具
SDK开发指南
API签名指南
Terraform
华为云命令行工具服务 KooCLI
其他
产品价格详情
系统权限
管理控制台
客户关联华为云合作伙伴须知
消息中心
公共问题
开发与运维
应用管理与运维平台 ServiceStage
软件开发生产线 CodeArts
需求管理 CodeArts Req
部署 CodeArts Deploy
性能测试 CodeArts PerfTest
编译构建 CodeArts Build
流水线 CodeArts Pipeline
制品仓库 CodeArts Artifact
测试计划 CodeArts TestPlan
代码检查 CodeArts Check
代码托管 CodeArts Repo
云应用引擎 CAE
开天aPaaS
云消息服务 KooMessage
云手机服务 KooPhone
云空间服务 KooDrive

将MySQL同步到Kafka

更新时间:2024-04-15 GMT+08:00

支持的源和目标数据库

表1 支持的数据库

源数据库

目标数据库

  • RDS for MySQL
  • Kafka

前提条件

  • 已登录数据复制服务控制台。
  • 满足实时同步支持的数据库类型和版本,详情请参见实时同步

使用建议

注意:
  • DRS任务启动和全量数据同步阶段,请不要在源数据库执行DDL操作,否则可能导致任务异常。
  • 为保证同步前后数据一致性,确保同步期间目标数据库无业务写入。
  • 数据库同步与环境多样性和人为操作均有密切关系,为了确保同步的平顺,建议您在进行正式的数据库同步之前进行一次演练,可以帮助您提前发现问题并解决问题。
  • 建议您在启动任务时选择“稍后启动”功能,将启动时间设置在业务低峰期,避免同步对业务造成性能影响。
    • 在网络无瓶颈的情况下,全量同步会对源数据库增加约50MB/s的查询压力,以及占用2~4个CPU。
    • 同步无主键表时,会存在3s以内的单表级锁定。
    • DRS并发读取数据库,会占用大约6-10个session连接数,需要考虑该连接数对业务的影响。
    • 全量阶段读取表数据时,特别是大表的读取,可能会阻塞业务上对大表的独占锁操作。

使用须知

在创建同步任务前,请务必阅读以下使用须知。

说明:
  • 建议创建单独用于DRS任务连接的数据库账号,避免因为数据库账号密码修改,导致的任务连接失败。
  • 连接源或目标数据库的账号密码修改后,请尽快修改DRS任务中的连接信息,避免任务连接失败后自动重试,导致数据库账号被锁定影响使用。
表2 使用须知

类型名称

使用和操作限制

数据库权限设置

  • 源数据库账号需要具备如下权限:SELECT、LOCK TABLES、SHOW VIEW、EVENT、REPLICATION SLAVE、REPLICATION CLIENT。

同步对象约束

  • 全量支持表、主键索引、唯一索引、普通索引、存储过程、视图、函数的同步,不支持事件、触发器的同步,增量仅支持表数据和DDL同步。
  • 不支持非MyISAM和非InnoDB表的同步。

源数据库要求

  • 增量同步时,MySQL源数据库的binlog日志必须打开,且binlog日志格式必须为Row格式。
  • 在磁盘空间允许的情况下,建议源数据库binlog保存时间越长越好,建议为3天。设置为0,可能会导致同步失败。

    RDS for MySQL设置binlog保留时间可参考《RDS用户指南》。

  • 源数据库GTID状态必须为开启状态,源数据库实例没有开启GTID的情况下不支持主备倒换,DRS任务会因为位点不续接而中断导致无法恢复。
  • 增量同步时,必须设置MySQL源数据库的server_id。如果源数据库版本小于或等于MySQL5.6,server_id的取值范围在2-4294967296之间;如果源数据库版本大于或等于MySQL5.7,server_id的取值范围在1-4294967296之间。
  • 增量同步时,如果设置session变量character_set_client为binary,可能导致乱码。
  • 源数据库中的库、表名不能包含:'<`>/\以及非ASCII字符。

目标数据库要求

  • 目标库为社区Kafka。

操作须知

  • 数据类型不兼容时,可能引起同步失败。
  • 源库为RDS for MySQL实例时,不支持带有TDE特性并建立具有加密功能表。
  • 在创建DRS任务之前,如果源数据库实例开启并设置了SQL限流规则,可能会导致DRS任务失败。
  • 实时同步过程中,如果修改了源库的用户名、密码,会导致同步任务失败,需要在数据复制服务控制台将上述信息重新修改正确,然后重试任务可继续进行实时同步。一般情况下不建议在同步过程中修改上述信息。
  • 实时同步过程中,如果修改了源库端口,会导致同步任务失败。针对该情况,系统自动更新为正确的端口,重试任务后即可进行同步。一般情况下不建议在同步过程中修改端口。
  • 实时同步过程中,对于因修改IP地址导致同步任务失败的情况,系统自动更新为正确的IP地址,需要重试任务可继续进行同步。一般情况下,不建议修改IP地址。
  • 全量同步过程中暂停、任务异常续传,目标Kafka中可能会出现重复数据,请使用Kafka数据中的identifier字段进行去重(同一个shardId)。
  • 不支持外键级联操作。当外键是普通索引的时候,可能会导致表结构创建失败,建议改成唯一索引。
  • 不支持源数据库恢复到之前时间点的操作(PITR)。
  • 支持断点续传功能,但是对于无主键的表可能会出现重复插入数据的情况。
  • 不支持强制清理binlog,否则会导致同步任务失败。
  • 源数据库不支持reset master或reset master to命令,可能会导致DRS任务失败或者数据不一致。
  • 当在同步过程中,对MyISAM表执行修改操作时,可能造成数据不一致。
  • 选择表级对象同步时,同步过程中不建议对表进行重命名操作。
  • 任务做库名映射时,同步的对象中如果存在存储过程、视图、函数对象,全量阶段这些对象不会同步。
  • 建议将expire_log_day参数设置在合理的范围,确保恢复时断点处的binlog尚未过期,以保证服务中断后的顺利恢复。

操作步骤

  1. 在“实时同步管理”页面,单击“创建同步任务”。
  2. 在“同步实例”页面,填选任务名称、描述、同步实例信息,单击“开始创建”

    • 任务信息
      表3 任务和描述

      参数

      描述

      任务名称

      任务名称在4到50位之间,必须以字母开头,可以包含字母、数字、中划线或下划线,不能包含其他的特殊字符。

      描述

      描述不能超过256位,且不能包含! = < > & ' " \ 特殊字符。

    • 同步实例信息
      表4 同步实例信息

      参数

      描述

      数据流动方向

      选择“出云”

      源数据库引擎

      选择“MySQL”

      目标数据库引擎

      选择“Kafka”

      网络类型

      此处以“公网网络”为示例。目前支持可选“公网网络”“VPC网络”、和“VPN、专线网络”

      • VPC网络:适合云上同账号同Region数据库之间的同步。
      • 公网网络:适合通过公网网络把其他云下或其他平台的数据库同步到目标数据库,该类型要求数据库绑定弹性公网IP(EIP)。
      • VPN、专线网络:适合通过专线网络,实现其他云下自建数据库与云上数据库同步、云上同Region跨账号、或云上跨Region的数据库之间的同步。

      源数据库实例

      用户创建的RDS for MySQL实例。

      同步实例所在子网

      请选择同步实例所在的子网。也可以单击“查看子网”,跳转至“网络控制台”查看实例所在子网帮助选择。

      默认值为当前所选数据库实例所在子网,请选择有可用IP地址的子网。为确保同步实例创建成功,仅显示已经开启DHCP的子网。

      同步模式

      此处以“全量+增量”为示例。

      • “全量+增量”

        该模式为数据持续性实时同步,通过全量过程完成目标端数据库的初始化后,增量同步阶段通过解析日志等技术,将源端和目标端数据保持数据持续一致。

        说明:

        选择“全量+增量”同步模式,增量同步可以在全量同步完成的基础上实现数据的持续同步,无需中断业务,实现同步过程中源业务和数据库继续对外提供访问。

      • “增量”

        增量同步通过解析日志等技术,将源端产生的增量数据同步至目标端。

    说明:

    对于创建失败的任务,DRS默认保留3天,超过3天将会自动结束任务。

  3. 在“源库及目标库”页面,同步实例创建成功后,填选源库信息和目标库信息,单击“源库和目标库”处的“测试连接”,分别测试并确定与源库和目标库连通后,勾选协议,单击“下一步”

    表5 源库信息

    参数

    描述

    数据库实例名称

    默认为创建同步任务时选择的RDS实例,不可进行修改。

    数据库用户名

    源数据库的用户名。

    数据库密码

    源数据库的用户名所对应的密码。

    SSL安全连接

    如启用SSL安全连接,请在源库开启SSL,并确保相关配置正确后上传SSL证书。

    说明:
    • 最大支持上传500KB的证书文件。
    • 如果不启用SSL安全连接,请自行承担数据安全风险。
    说明:

    源数据库的数据库用户名和密码,会被系统加密暂存,直至删除该迁移任务后自动清除。

    表6 目标库信息

    参数

    描述

    IP地址或域名

    目标数据库的IP地址或域名。

    安全协议

    支持四种认证方式的选择,PLAINTEXT、SSL、SASL_PLAINTEXT和SASL_SSL,详细说明可参考Kafka认证方式

  4. “设置同步”页面,选择同步策略、数据格式和同步对象,单击“下一步”

    表7 同步对象

    参数

    描述

    流速模式

    流速模式支持限速和不限速,默认为不限速。

    • 限速

      自定义的最大同步速度,全量同步过程中的同步速度将不会超过该速度。

      当流速模式选择了“限速”时,你需要通过流速设置来定时控制同步速度。流速设置通常包括限速时间段和流速大小的设置。默认的限速时间段为“全天限流”,您也可以根据业务需求选择“时段限流”。自定义的时段限流支持最多设置3个定时任务,每个定时任务之间不能存在交叉的时间段,未设定在限速时间段的时间默认为不限速。

      流速的大小需要根据业务场景来设置,不能超过9999MB/s。

    • 不限速
      对同步速度不进行限制,通常会最大化使用源数据库的出口带宽。该流速模式同时会对源数据库造成读消耗,消耗取决于源数据库的出口带宽。比如源数据库的出口带宽为100MB/s,假设高速模式使用了80%带宽,则同步对源数据库将造成80MB/s的读操作IO消耗。
      说明:
      • 限速模式只对全量阶段生效,增量阶段不生效。
      • 您也可以在创建任务后修改流速模式。具体方法请参见修改流速模式

    同步对象类型

    可选同步表结构、同步数据,根据实际需求进行选择要同步内容。

    DML同步

    选择需要同步的DML操作,默认都勾选。

    同步Topic策略

    同步Topic策略,可选择“集中投递到一个Topic”或者“自动生成Topic名字”。

    Topic

    选择目标端需要同步到的Topic,同步Topic策略选择“集中投递到一个Topic”时可见。

    Topic名字格式

    Topic名字格式,同步Topic策略选择“自动生成Topic名字”时可见。

    由于Kafka的机制限制,Topic名字只能包含ASCII字符、"."、"_"及"-",如果超过该范围会导致创建Topic失败,任务异常。

    如果Topic名字格式中包含数据库对象名,请确保对象名的字符在Kafka topic命名机制内。

    Topic名字格式支持database和tablename两个变量,其他字符都当做常量。分别用$database$代替数据库名,$tablename$代替表名。

    例如:配置成$database$-$tablename$时,如果数据库名称为db1,表名为tab1,则Topic名字为db1-tab1。如果是DDL语句,$tablename$为空,则Topic名字为db1。

    Partition个数

    同步Topic策略选择自动生成Topic名字时可见。

    用来设置topic的分区个数。每个topic都可以创建多个partition,越多的partition可以提供更高的吞吐量,越多的partition会消耗更多的资源,建议根据broker节点的实际情况来设置partition的数量。

    副本个数

    同步Topic策略选择自动生成Topic名字时可见。

    用来设置topic的副本数。每个topic可以有多个副本,副本位于集群中不同的broker上,副本的数量不能超过broker的数量,否则创建topic时会失败。

    同步到kafka partition策略

    同步到kafka partition策略。

    • 按库名+表名的hash值投递到不同Partition:适用于单表的查询场景,表内保序,表与表之间不保序,可以提高单表读写性能,推荐使用此选项。
    • 全部投递到Partition 0:适用于有事务要求的场景,事务保序,可以保证完全按照事务顺序消费,写入性能比较差,如果没有强事务要求,不推荐使用此选项。
    • 按主键的hash值投递到不同的Partition:适用于一个表一个Topic的场景。

    投送到kafka的数据格式

    选择MySQL投送到kafka的数据格式。

    • Avro:可以显示Avro二进制编码,高效获取数据。步骤2的同步模式选择“增量”时可见。
    • JSON:为Json消息格式,方便解释格式,但需要占用更多的空间。
    • JSON-C:一种能够兼容多个批量,流式计算框架的数据格式。

    详细格式可参考Kafka消息格式

    同步对象

    左侧框是源数据库对象,右侧框是已经选择的对象,同步对象支持表级同步、库级同步、导入对象文件,您可以根据业务场景选择对应的数据进行同步。

    • 在同步对象右侧已选对象框中,可以使用对象名映射功能进行源数据库和目标数据库中的同步对象映射,具体操作可参考对象名映射
    • 选择导入对象文件,具体步骤和说明可参考导入同步对象
    说明:
    • 选择对象的时候支持对展开的库进行搜索,以便您快速选择需要的数据库对象。
    • 如果有切换源数据库的操作或源库同步对象变化的情况,请在选择同步对象前单击右上角的,以确保待选择的对象为最新源数据库对象。
    • 当对象名称包含空格时,名称前后的空格不显示,中间如有多个空格只显示一个空格。
    • 选择的同步对象名称中不能包含空格。

  5. 在“数据加工”页面,选择需要加工的列,进行列加工。

    • 如果不需要数据加工,单击“下一步”。
    • 如果需要加工列,参考数据加工章节,设置相关规则。

  6. “预检查”页面,进行同步任务预校验,校验是否可进行。

    • 查看检查结果,如有不通过的检查项,需要修复不通过项后,单击“重新校验”按钮重新进行任务预校验。
    • 预检查完成后,且所有检查项结果均通过时,单击“下一步”
      说明:

      所有检查项结果均通过时,如果存在请确认项,需要阅读并确认详情后才可以继续执行下一步操作。

  7. “任务确认”页面,设置同步任务的启动时间,并确认同步任务信息无误后,单击“启动任务”,提交同步任务。

    表8 任务启动设置

    参数

    描述

    启动时间

    同步任务的启动时间可以根据业务需求,设置为“立即启动”或“稍后启动”。

    说明:

    预计同步任务启动后,会对源数据库和目标数据库的性能产生影响,建议选择业务低峰期,合理设置同步任务的启动时间。

  8. 同步任务提交后,您可在“实时同步管理”页面,查看并管理自己的任务

    • 您可查看任务提交后的状态,状态请参见任务状态说明
    • 在任务列表的右上角,单击刷新列表,可查看到最新的任务状态。
    • 对于未启动、状态为配置中的任务,DRS默认保留3天,超过3天DRS会自动删除后台资源,当前任务状态不变。当用户再次配置时,DRS会重新申请资源,此时DRS任务IP会发生改变。

我们使用cookie来确保您的高速浏览体验。继续浏览本站,即表示您同意我们使用cookie。 详情

文档反馈

文档反馈

意见反馈

0/500

标记内容

同时提交标记内容