- 最新动态
- 功能总览
- 产品介绍
- 计费说明
- 快速入门
-
用户指南
- 开始使用ROMA Connect
- 实例管理
- 集成应用管理
-
数据源管理
- ROMA Connect支持的数据源
- 接入API数据源
- 接入ActiveMQ数据源
- 接入ArtemisMQ数据源
- 接入DB2数据源
- 接入DIS数据源
- 接入DWS数据源
- 接入DM数据源
- 接入Gauss100数据源
- 接入FTP数据源
- 接入HL7数据源
- 接入HANA数据源
- 接入HIVE数据源
- 接入LDAP数据源
- 接入IBM MQ数据源
- 接入Kafka数据源
- 接入MySQL数据源
- 接入MongoDB数据源
- 接入MQS数据源
- 接入MRS Hive数据源
- 接入MRS HDFS数据源
- 接入MRS HBase数据源
- 接入MRS Kafka数据源
- 接入OBS数据源
- 接入Oracle数据源
- 接入PostgreSQL数据源
- 接入Redis数据源
- 接入RabbitMQ数据源
- 接入RocketMQ数据源
- 接入SAP数据源
- 接入SNMP数据源
- 接入SQL Server数据源
- 接入GaussDB(for MySQL)数据源
- 接入WebSocket数据源
- 接入自定义数据源
- 数据集成指导
- 服务集成指导
- 服务集成指导(旧版界面)
- 消息集成指导
- 设备集成指导
- 应用业务模型使用指导
- 扩大资源配额
- 查看审计日志
- 查看监控指标
- 权限管理
- 用户指南(新版)
- 最佳实践
-
开发指南
- 数据集成开发指导
-
服务集成开发指导
- 开发说明
- API调用认证开发(APP认证)
- API调用认证开发(IAM认证)
-
自定义后端开发(函数后端)
- 函数后端脚本开发说明
- AesUtils类说明
- APIConnectResponse类说明
- Base64Utils类说明
- CacheUtils类说明
- CipherUtils类说明
- ConnectionConfig类说明
- DataSourceClient类说明
- DataSourceConfig类说明
- ExchangeConfig类说明
- HttpClient类说明
- HttpConfig类说明
- JedisConfig类说明
- JSON2XMLHelper类说明
- JSONHelper类说明
- JsonUtils类说明
- JWTUtils类说明
- KafkaConsumer类说明
- KafkaProducer类说明
- KafkaConfig类说明
- MD5Encoder类说明
- Md5Utils类说明
- QueueConfig类说明
- RabbitMqConfig类说明
- RabbitMqProducer类说明
- RedisClient类说明
- RomaWebConfig类说明
- RSAUtils类说明
- SapRfcClient类说明
- SapRfcConfig类说明
- SoapClient类说明
- SoapConfig类说明
- StringUtils类说明
- TextUtils类说明
- XmlUtils类说明
- 自定义后端开发(数据后端)
- 后端服务签名校验开发
- 消息集成开发指导
- 设备集成开发指导
-
API参考
- 使用前必读
- API概览
- 如何调用API
- 公共资源API
- 数据集成API
- 服务集成API
- 消息集成API
- 设备集成API
- 应用示例
- 权限和授权项
- 附录
- 历史API
- 修订记录
- SDK参考
-
常见问题
- 实例管理
-
数据集成
-
数据集成普通任务
- FDI各类数据库支持哪些数据类型?
- 跟踪号是什么,能跟踪到数据吗?
- FDI任务是否支持清空目标表?
- FDI任务只能采集单张表到单张表吗?
- 用户创建的FDI任务,同一账号的其他用户可见吗?
- FDI通过公网对接其他租户的MRS HIVE如何配置?
- 从OBS解析文件到RDS数据库,采集过一次后,后面采集会进行更新吗?
- OBS源端的CSV文件解析到关系型数据库时,列的值不对怎么办?
- MRS Hive目标字段和源端字段数据类型不匹配时,数据是否能集成到目标端?
- MRS Hive、MRS HBase和MongoDB的Mapping映射手动输入时,是否区分大小写?
- MRS Hive是否支持分区?
- 源端API类型数据源自定义周期如何设置?
- SAP是否支持分页读取视图?
- 数据集成组合任务
-
数据集成普通任务
- 服务集成
- 消息集成
- 设备集成
-
故障排除
-
数据集成任务
- MRS Hive目标端写入时出现数据乱码
- MRS Hive写入时数据全部写在第一个字段里
- 目标端任务报任务运行超时
- MySQL到MRS Hive时目标端报“could only be written to 0 of the 1 minReplication nodes. There are 2 datanode(s) running and 2 node(s) are excluded in this operation”错误
- Mysql到Mysql时源端报“Illegal mix of collations for operation 'UNION'”错误
- 源端Mysql增量采集每小时执行一次时部分数据丢失
- API到MySQL时源端报“401 unauthorized”错误
- Kafka集到Mysql目标端报“cannot find record mapping field”错误
- API到MySQL的定时任务时会出现源端报“connect timeout”错误
- Kafka到Mysql的实时任务时,MQS中的Topic下有数据,但是FDI任务没有采集到数据。
- Mysql到Mysql的定时任务,源端有类型为tinyint(1),值为2的字段,但是采集到目标端值就变成了1
- 目标端数据源为公网Kafka时,定时任务目标端报“The task executes failed.Writer data to kafka failed”错误
- 数据集成组合任务
- 数据源
- 服务集成
- 设备集成
-
数据集成任务
- 视频帮助
- 文档下载
- 通用参考
链接复制成功!
什么是应用与数据集成平台
企业在向数字化转型的过程中会面临诸多难题:缺少统一的设备信息集成途径;数据格式多样化,难以传输和集成;缺少与合作伙伴分享数据和后端服务的便捷途径;缺少云上云下跨网络的安全信息通道。ROMA Connect是一个全栈式的应用与数据集成平台,源自华为数字化转型集成实践,聚焦应用和数据连接,适配多种企业常见的使用场景。ROMA Connect提供轻量化消息、数据、API、设备等集成能力,简化企业上云流程,支持云上云下、跨区域集成,帮助企业实现数字化转型。

ROMA Connect主要包含四个组件:数据集成(FDI)、服务集成(APIC)、消息集成(MQS)、设备集成(LINK)。
FDI
快速数据集成FDI(Fast Data Integration,简称FDI)是ROMA Connect的数据集成组件。FDI支持多种数据源(文本、消息、API、关系型数据和非关系型数据等)之间的灵活、快速、无侵入式的数据集成,可以实现跨机房、跨数据中心、跨云的数据集成方案,并能自助实施、运维、监控集成数据。
例如集团企业场景中,企业与合作伙伴使用的数据源不一样,难以形成企业之间有效的信息传输。FDI提供了多种数据源之间转换的方式,支持MySQL、Kafka、API等主流格式之间的转换。
功能 |
简介 |
---|---|
数据集成任务的生命周期管理 |
FDI支持修改数据集成任务的信息、查看数据集成任务的运行报告、查看数据集成任务的运行日志、查看数据集成任务状态,完成数据集成任务的生命周期管理功能。 |
灵活的数据读写 |
|
可靠的数据传输通道 |
FDI可以持续监测数据通道中的数据,支持100个以上的线程并发执行。FDI实时监测消息队列把数据实时写入目标队列。 |
任务调度 |
FDI提供全面、灵活、高可用的任务调度服务,支持通过API或以消息方式进行数据集成。按照时间、数据数量等任务触发规则来调度任务。根据任务配置,为插件分配任务,并监控和记录任务的执行状态。 企业根据不同的业务需求,可以选择不同的数据集成方式:
|
监控告警 |
对创建的数据集成任务的运行情况进行监控,并对异常的任务进行处理,保证业务正常运行。 |
APIC
服务集成APIC(API Connect,简称APIC)是ROMA Connect的API集成组件。APIC将数据和后端服务以API形式开放,简化分享数据或提供服务的过程,降低企业之间对接的成本。APIC提供不同语言的SDK和示例代码,简化企业以API形式开放后端服务的过程。
例如集团与各地区子公司的IT系统集成,直接访问对方各类数据库方式过于复杂,且容易发生信息泄露风险,如果以API方式互相开放访问,同时加强API调用安全防护,就能实现跨网络跨地域协同办公。
功能 |
简介 |
---|---|
API生命周期管理 |
APIC提供包括API的创建、发布、下线和删除的完整生命周期管理功能。 |
便捷调试工具 |
APIC提供页面调试工具,简化API开发,降低API的维护成本。 |
版本管理 |
一个API可以发布不同的版本到不同的环境,以满足业务版本升级等需求。 |
流量控制 |
用于管控API的请求频率、用户的请求频率和应用的请求频率。 流量控制的时间单位可以是秒、分钟、小时或天。允许设置特殊的应用,不受到流量控制策略的影响。 |
监控统计 |
提供实时、可视化的API监控,包括:API请求次数、API调用错误信息。 |
环境变量 |
当API发布到不同环境时,一般通过在API调用的请求头增加指定的头部参数及特殊取值区分不同的环境。发布过程中变量标识会根据环境的变量值进行替换,保证API本身定义不变。 |
自定义后端 |
包括自定义Data API与自定义Function API。
|
MQS
消息集成(Message Queue Service,简称MQS)是ROMA Connect的消息集成组件。MQS支持Kafka协议,使用统一的消息接入机制,为企业提供跨网络访问的安全、标准化消息通道。
例如企业与合作伙伴使用的消息系统不一样,消息系统对接成本较高,而且难以保证对接之后消息传输的可靠性和安全性。企业之间可以协定使用Kafka通信协议,那么MQS可以作为消息中转站,提供安全、可靠的消息传输通道。企业创建多个topic,设置每个合作伙伴订阅topic的权限,然后将消息发布到多个topic中。合作伙伴通过订阅topic,获取topic内的消息。
功能 |
简介 |
---|---|
原生Kafka基础功能 |
MQS除了支持客户端连接后管理Topic和发布订阅消息,还支持在ROMA Connect控制台可视化操作,包括Topic创建和管理、用户管理与权限设置、消息查询等功能。 |
监控报警 |
MQS从实例、节点、Topic、消费组等多个维度,设立了不同监控指标,数据上报云监控服务,企业可以在云监控服务的管理控制台查看相关监控数据。MQS支持企业配置告警规则,轻松实现监控数据概览与异常告警。 |
消息查看 |
MQS提供了可视化的消息查询功能,可在界面查看Topic中存储的消息数据,可以更直观方便的查看消息正文。 |
LINK
设备集成(LINK)是ROMA Connect的设备集成组件。设备集成使用MQTT标准协议连接设备,帮助企业快速、简单地实现设备云端管理。
例如工业场景中,设备的信息和生产过程中的参数比较分散。生产线出现故障时,如果靠人工采集每一台设备的信息与参数,定位问题的过程缓慢。设备集成能够连接设备和IT系统、大数据平台,将设备的运行状态等信息上传到IT系统或大数据平台,实现所有设备的信息可视化,一旦生产线出现故障,企业能够快速定位问题。通过配置LINK的规则引擎,把设备参数的极限值输入到设备引擎里面,如果设备的实时参数一直在向极限值接近,就发出告警信息,提醒用户停止设备,对设备进行维护和保养。
功能 |
简介 |
---|---|
发布和订阅消息 |
LINK支持标准的MQTT协议,企业可以使用开源的标准MQTT设备端SDK将设备轻松接入云端,进行消息的发布和订阅。 |
实现设备与后端各应用的消息互通 |
用户可以在控制台配置规则引擎实现设备与其他设备、后端、其他云服务的消息互通。 LINK支持规则引擎转发数据到消息集成MQS。第三方服务通过MQS服务获取数据,实现设备与第三方服务的异步消息通信。 |
支持海量设备低延时接入 |
LINK支持Broker水平扩展,支持百万设备长连接。 |
支持设备与应用之间的双向同步 |
LINK支持物模型定义,模型与设备影子绑定。用户可以基于设备影子实现设备与应用之间配置数据、状态数据的双向同步。 一方面,用户可以通过API将配置参数设置到设备影子里,设备在线或上线时,都可以从设备影子获取配置参数。另一方面,设备可以将最新状态上报到设备影子。用户查询设备状态时,只需查询设备影子,而不必与设备进行直接网络通信。 |
保证信息传输的安全 |
LINK提供设备、应用授权认证及Topic的双向绑定授权,保障设备安全与唯一性,提供TLS标准的数据传输通道保障消息传输通道的安全。 |
组合应用
ROMA Connect可通过组合应用进行应用的复合集成,通过开放的API和事件通道进行应用的多次组装,形成新的组合应用,实现业务快速复制创新,形成千人千面的集成体验。内置海量连接器,提供各种数据库、API、消息、SaaS应用等的连接器封装。同时提供自定义连接器框架,可快速按需扩展定制;提供丰富的预置组合应用集成模板和生态连接器,联合各行各业的伙伴积累行业资产,开箱即用。
功能 |
简介 |
---|---|
组合应用 |
在画布页面对各种触发器、连接器、处理器进行编排和配置,组合成新的组合应用。 |
智能助手 |
智能助手通过NLP (Natural Language Processing) 机器学习,理解用户输入的集成业务需求,匹配系统支持的触发器、连接器和数据处理器,生成组合应用。可以对生成的组合应用进一步配置和编排,最后构建,部署上线。 |
组合应用模板 |
提供丰富的预置组合应用集成模板,帮助用户快速便捷的创建组合应用。 |
引用变量 |
用户在编辑设计组合应用时,可以通过变量的方式快速引用流任务中的输入输出信息和配置信息,帮助用户便捷高效的设计组合应用。 |
在线调试 |
创建组合应用和工作流并配置完成后,可对工作流进行在线调试,实时查看各个节点的运行信息,便于后续对工作流进行调整以满足业务需求。 |
监控统计 |
提供组合应用运行记录、系统日志、运行监控等监控信息统计。 |