- 最新动态
- 功能总览
- 产品介绍
- 计费说明
- 快速入门
-
用户指南
- 开始使用ROMA Connect
- 实例管理
- 集成应用管理
-
数据源管理
- ROMA Connect支持的数据源
- 接入API数据源
- 接入ActiveMQ数据源
- 接入ArtemisMQ数据源
- 接入DB2数据源
- 接入DIS数据源
- 接入DWS数据源
- 接入DM数据源
- 接入Gauss100数据源
- 接入FTP数据源
- 接入HL7数据源
- 接入HANA数据源
- 接入HIVE数据源
- 接入LDAP数据源
- 接入IBM MQ数据源
- 接入Kafka数据源
- 接入MySQL数据源
- 接入MongoDB数据源
- 接入MQS数据源
- 接入MRS Hive数据源
- 接入MRS HDFS数据源
- 接入MRS HBase数据源
- 接入MRS Kafka数据源
- 接入OBS数据源
- 接入Oracle数据源
- 接入PostgreSQL数据源
- 接入Redis数据源
- 接入RabbitMQ数据源
- 接入RocketMQ数据源
- 接入SAP数据源
- 接入SNMP数据源
- 接入SQL Server数据源
- 接入GaussDB(for MySQL)数据源
- 接入WebSocket数据源
- 接入自定义数据源
- 数据集成指导
- 服务集成指导
- 服务集成指导(旧版界面)
- 消息集成指导
- 设备集成指导
- 应用业务模型使用指导
- 扩大资源配额
- 查看审计日志
- 查看监控指标
- 权限管理
- 用户指南(新版)
- 最佳实践
-
开发指南
- 数据集成开发指导
-
服务集成开发指导
- 开发说明
- API调用认证开发(APP认证)
- API调用认证开发(IAM认证)
-
自定义后端开发(函数后端)
- 函数后端脚本开发说明
- AesUtils类说明
- APIConnectResponse类说明
- Base64Utils类说明
- CacheUtils类说明
- CipherUtils类说明
- ConnectionConfig类说明
- DataSourceClient类说明
- DataSourceConfig类说明
- ExchangeConfig类说明
- HttpClient类说明
- HttpConfig类说明
- JedisConfig类说明
- JSON2XMLHelper类说明
- JSONHelper类说明
- JsonUtils类说明
- JWTUtils类说明
- KafkaConsumer类说明
- KafkaProducer类说明
- KafkaConfig类说明
- MD5Encoder类说明
- Md5Utils类说明
- QueueConfig类说明
- RabbitMqConfig类说明
- RabbitMqProducer类说明
- RedisClient类说明
- RomaWebConfig类说明
- RSAUtils类说明
- SapRfcClient类说明
- SapRfcConfig类说明
- SoapClient类说明
- SoapConfig类说明
- StringUtils类说明
- TextUtils类说明
- XmlUtils类说明
- 自定义后端开发(数据后端)
- 后端服务签名校验开发
- 消息集成开发指导
- 设备集成开发指导
-
API参考
- 使用前必读
- API概览
- 如何调用API
- 公共资源API
- 数据集成API
- 服务集成API
- 消息集成API
- 设备集成API
- 应用示例
- 权限和授权项
- 附录
- 历史API
- 修订记录
- SDK参考
-
常见问题
- 实例管理
-
数据集成
-
数据集成普通任务
- FDI各类数据库支持哪些数据类型?
- 跟踪号是什么,能跟踪到数据吗?
- FDI任务是否支持清空目标表?
- FDI任务只能采集单张表到单张表吗?
- 用户创建的FDI任务,同一账号的其他用户可见吗?
- FDI通过公网对接其他租户的MRS HIVE如何配置?
- 从OBS解析文件到RDS数据库,采集过一次后,后面采集会进行更新吗?
- OBS源端的CSV文件解析到关系型数据库时,列的值不对怎么办?
- MRS Hive目标字段和源端字段数据类型不匹配时,数据是否能集成到目标端?
- MRS Hive、MRS HBase和MongoDB的Mapping映射手动输入时,是否区分大小写?
- MRS Hive是否支持分区?
- 源端API类型数据源自定义周期如何设置?
- SAP是否支持分页读取视图?
- 数据集成组合任务
-
数据集成普通任务
- 服务集成
- 消息集成
- 设备集成
-
故障排除
-
数据集成任务
- MRS Hive目标端写入时出现数据乱码
- MRS Hive写入时数据全部写在第一个字段里
- 目标端任务报任务运行超时
- MySQL到MRS Hive时目标端报“could only be written to 0 of the 1 minReplication nodes. There are 2 datanode(s) running and 2 node(s) are excluded in this operation”错误
- Mysql到Mysql时源端报“Illegal mix of collations for operation 'UNION'”错误
- 源端Mysql增量采集每小时执行一次时部分数据丢失
- API到MySQL时源端报“401 unauthorized”错误
- Kafka集到Mysql目标端报“cannot find record mapping field”错误
- API到MySQL的定时任务时会出现源端报“connect timeout”错误
- Kafka到Mysql的实时任务时,MQS中的Topic下有数据,但是FDI任务没有采集到数据。
- Mysql到Mysql的定时任务,源端有类型为tinyint(1),值为2的字段,但是采集到目标端值就变成了1
- 目标端数据源为公网Kafka时,定时任务目标端报“The task executes failed.Writer data to kafka failed”错误
- 数据集成组合任务
- 数据源
- 服务集成
- 设备集成
-
数据集成任务
- 视频帮助
- 文档下载
- 通用参考
链接复制成功!
Kafka业务迁移
概述
Kafka业务迁移指将连接其他Kafka的生产与消费消息的客户端切换成连接ROMA Connect,部分还涉及将持久化的消息文件迁移到ROMA Connect上。
在业务迁移过程中,连续性要求高的业务,需要平滑迁移,不能有长时间的中断。
迁移准备
- 确保消息生产与消费客户端与ROMA Connect实例的消息集成MQS连接地址网络互通。您可以在ROMA Connect实例控制台的“实例信息”页面查看消息集成MQS连接地址。
- 如果使用内网地址连接,则客户端与ROMA Connect实例应在同一VPC内。若客户端和ROMA Connect实例在不同VPC,可以通过创建VPC对等连接,将两个VPC的网络打通,实现跨VPC访问,具体请参考VPC对等连接说明。
- 如果使用公网地址连接,则客户端需要有公网访问权限。
- 确保ROMA Connect实例的消息集成规格不能低于原业务使用的Kafka规格。消息集成规格请参考产品规格。
- 在ROMA Connect实例上创建与原Kafka相同配置的Topic,包括Topic名称、副本数、分区数、消息老化时间,以及是否同步复制和落盘等。
方案一:先迁生产,再迁消费
- 方案介绍
本方案中,先将生产消息的业务迁移到ROMA Connect,原Kafka不会有新的消息生产。待原Kafka的消息全部消费完成后,再将消费消息业务迁移到ROMA Connect,开始消费新的消息。
该案为业界通用的迁移方案,操作步骤简单,迁移过程由业务侧自主控制,整个过程中消息不会存在乱序问题。但是该方案中需要等待消费者业务直至消费完毕,存在一个时间差的问题,部分数据可能存在较大的端到端时延。
此方案适用于对消息顺序有要求,却对端到端时延不敏感的业务。
- 迁移流程
- 将生产客户端的Kafka连接地址修改为ROMA Connect实例的消息集成MQS连接地址。
- 重启生产业务,使得生产者将新的消息发送到ROMA Connect实例中。
- 观察各消费组在原Kafka的消费进度,直到原Kafka中数据都已经被消费完毕。
- 将消费客户端的Kafka连接地址修改为ROMA Connect实例的消息集成MQS连接地址。
- 重启消费业务,使得消费者从ROMA Connect实例中消费消息。
- 观察消费者是否能正常从ROMA Connect实例中获取数据。
- 迁移结束。
方案二:同时消费,后迁生产
- 方案介绍
本方案中,消费者业务启用多个消费客户端,分别从原Kafka和ROMA Connect消费消息,然后将生产业务切到ROMA Connect,这样能确保所有消息都被及时消费。
该方案中消费业务会在一段时间内同时消费原Kafka和ROMA Connect。由于在迁移生产业务之前,消费业务就已经运行在ROMA Connect上,因此不会存在端到端时延的问题。但是在迁移生产的开始阶段,同时消费原Kafka与ROMA Connect,会导致部分消息之间的生产顺序无法保证,存在消息乱序的问题。
此方案适用于对端到端时延有要求,却对消息顺序不敏感的业务。
- 迁移流程
- 启动新的消费客户端,配置Kafka连接地址为ROMA Connect实例的消息集成MQS连接地址,消费ROMA Connect实例中的数据。
说明:
原有消费客户端需继续运行,消费业务同时消费原Kafka与新Kafka实例的消息。
- 修改生产客户端,Kafka连接地址改为ROMA Connect实例的消息集成MQS连接地址。
- 重启生产客户端,将生产业务迁移到ROMA Connect实例中。
- 生产业务迁移后,观察连接ROMA Connect实例的消费业务是否正常。
- 等待原Kafka中数据消费完毕,关闭原有消费业务客户端。
- 迁移结束。
- 启动新的消费客户端,配置Kafka连接地址为ROMA Connect实例的消息集成MQS连接地址,消费ROMA Connect实例中的数据。
迁移持久化数据
如果需要将原Kafka的已消费数据也迁移到ROMA Connect实例,可以使用开源工具MirrorMaker,模拟成原Kafka的消费客户端,以及ROMA Connect实例的生产客户端,将原Kafka所有消息数据迁移到ROMA Connect实例。
若原Kafka的Topic为单副本存储,ROMA Connect实例中的Topic为3副本存储,则建议ROMA Connect实例存储空间为原Kafka的3倍。