- 最新动态
- 功能总览
- 产品介绍
- 计费说明
- 快速入门
-
用户指南
- 开始使用ROMA Connect
- 实例管理
- 集成应用管理
-
数据源管理
- ROMA Connect支持的数据源
- 接入API数据源
- 接入ActiveMQ数据源
- 接入ArtemisMQ数据源
- 接入DB2数据源
- 接入DIS数据源
- 接入DWS数据源
- 接入DM数据源
- 接入Gauss100数据源
- 接入FTP数据源
- 接入HL7数据源
- 接入HANA数据源
- 接入HIVE数据源
- 接入LDAP数据源
- 接入IBM MQ数据源
- 接入Kafka数据源
- 接入MySQL数据源
- 接入MongoDB数据源
- 接入MQS数据源
- 接入MRS Hive数据源
- 接入MRS HDFS数据源
- 接入MRS HBase数据源
- 接入MRS Kafka数据源
- 接入OBS数据源
- 接入Oracle数据源
- 接入PostgreSQL数据源
- 接入Redis数据源
- 接入RabbitMQ数据源
- 接入RocketMQ数据源
- 接入SAP数据源
- 接入SNMP数据源
- 接入SQL Server数据源
- 接入GaussDB(for MySQL)数据源
- 接入WebSocket数据源
- 接入自定义数据源
- 数据集成指导
- 服务集成指导
- 服务集成指导(旧版界面)
- 消息集成指导
- 设备集成指导
- 应用业务模型使用指导
- 扩大资源配额
- 查看审计日志
- 查看监控指标
- 权限管理
- 用户指南(新版)
- 最佳实践
-
开发指南
- 数据集成开发指导
-
服务集成开发指导
- 开发说明
- API调用认证开发(APP认证)
- API调用认证开发(IAM认证)
-
自定义后端开发(函数后端)
- 函数后端脚本开发说明
- AesUtils类说明
- APIConnectResponse类说明
- Base64Utils类说明
- CacheUtils类说明
- CipherUtils类说明
- ConnectionConfig类说明
- DataSourceClient类说明
- DataSourceConfig类说明
- ExchangeConfig类说明
- HttpClient类说明
- HttpConfig类说明
- JedisConfig类说明
- JSON2XMLHelper类说明
- JSONHelper类说明
- JsonUtils类说明
- JWTUtils类说明
- KafkaConsumer类说明
- KafkaProducer类说明
- KafkaConfig类说明
- MD5Encoder类说明
- Md5Utils类说明
- QueueConfig类说明
- RabbitMqConfig类说明
- RabbitMqProducer类说明
- RedisClient类说明
- RomaWebConfig类说明
- RSAUtils类说明
- SapRfcClient类说明
- SapRfcConfig类说明
- SoapClient类说明
- SoapConfig类说明
- StringUtils类说明
- TextUtils类说明
- XmlUtils类说明
- 自定义后端开发(数据后端)
- 后端服务签名校验开发
- 消息集成开发指导
- 设备集成开发指导
-
API参考
- 使用前必读
- API概览
- 如何调用API
- 公共资源API
- 数据集成API
- 服务集成API
- 消息集成API
- 设备集成API
- 应用示例
- 权限和授权项
- 附录
- 历史API
- 修订记录
- SDK参考
-
常见问题
- 实例管理
-
数据集成
-
数据集成普通任务
- FDI各类数据库支持哪些数据类型?
- 跟踪号是什么,能跟踪到数据吗?
- FDI任务是否支持清空目标表?
- FDI任务只能采集单张表到单张表吗?
- 用户创建的FDI任务,同一账号的其他用户可见吗?
- FDI通过公网对接其他租户的MRS HIVE如何配置?
- 从OBS解析文件到RDS数据库,采集过一次后,后面采集会进行更新吗?
- OBS源端的CSV文件解析到关系型数据库时,列的值不对怎么办?
- MRS Hive目标字段和源端字段数据类型不匹配时,数据是否能集成到目标端?
- MRS Hive、MRS HBase和MongoDB的Mapping映射手动输入时,是否区分大小写?
- MRS Hive是否支持分区?
- 源端API类型数据源自定义周期如何设置?
- SAP是否支持分页读取视图?
- 数据集成组合任务
-
数据集成普通任务
- 服务集成
- 消息集成
- 设备集成
-
故障排除
-
数据集成任务
- MRS Hive目标端写入时出现数据乱码
- MRS Hive写入时数据全部写在第一个字段里
- 目标端任务报任务运行超时
- MySQL到MRS Hive时目标端报“could only be written to 0 of the 1 minReplication nodes. There are 2 datanode(s) running and 2 node(s) are excluded in this operation”错误
- Mysql到Mysql时源端报“Illegal mix of collations for operation 'UNION'”错误
- 源端Mysql增量采集每小时执行一次时部分数据丢失
- API到MySQL时源端报“401 unauthorized”错误
- Kafka集到Mysql目标端报“cannot find record mapping field”错误
- API到MySQL的定时任务时会出现源端报“connect timeout”错误
- Kafka到Mysql的实时任务时,MQS中的Topic下有数据,但是FDI任务没有采集到数据。
- Mysql到Mysql的定时任务,源端有类型为tinyint(1),值为2的字段,但是采集到目标端值就变成了1
- 目标端数据源为公网Kafka时,定时任务目标端报“The task executes failed.Writer data to kafka failed”错误
- 数据集成组合任务
- 数据源
- 服务集成
- 设备集成
-
数据集成任务
- 视频帮助
- 文档下载
- 通用参考
链接复制成功!
创建数据后端
概述
ROMA Connect支持把数据源定义为后端服务,实现从数据源中读写数据,并以API的形式对外开放。
约束与限制
- 数据源存储的单行数据大小建议不超过2KB,若超过该限制会导致自定义后端响应异常。
- 当数据源返回numeric类型数据时,如果该数据的小数位精度超过6位,且数值为0时,数据后端会把该数据值转换为科学计数法。因此,不建议把numeric类型数据的小数位精度设置为超过6位。
操作步骤
- 登录ROMA Connect控制台,在“实例”页面单击实例上的“查看控制台”,进入实例控制台。
- 在左侧的导航栏选择“服务集成 APIC > 自定义后端”,在“后端列表”页签中单击“创建后端”。
- 在创建后端页面配置后端信息,完成后单击“立即创建”。
后端创建完成后,页面自动跳转到该后端的编辑器页面,后端类型默认为数据后端。
表1 后端配置 参数
说明
后端名称
填写后端的名称,根据规划自定义。建议您按照一定的命名规则填写后端名称,方便您快速识别和查找。
集成应用
选择后端所属的集成应用。若没有可用的集成应用,可单击右侧的“新建集成应用”,创建一个集成应用。
后端请求方法
选择后端的请求方法,可选择“GET”、“POST”、“PUT”和“DELETE”。
后端请求路径
填写后端的请求路径,格式如:/getUserInfo/userId。
请求路径中的内容区分大小写。
后端安全认证
选择后端的安全认证方式。
- 签名密钥:使用签名密钥对后端请求进行认证。若使用签名密钥进行认证,该后端服务对应的前端API也需要绑定相同的签名密钥。
- 无认证:不对调用请求进行认证。
描述
填写后端的描述信息。
高级设置
版本号
填写后端的版本号,自定义,用于区分不同的后端服务版本,如V1.0。
入参定义
根据实际需要定义后端服务的请求参数。
在“入参定义”下单击“新增入参定义”,添加自定义后端的请求参数。
- 名称:请求参数的名称,自定义。
- 参数位置:请求参数在后端服务请求中的位置,可选择“Headers”和“Parameters”。
- 测试界面默认值:仅用于后续的自定义后端测试步骤,作为参数的默认测试值。在自定义后端部署时不生效。
- 必填:在后端服务请求中,请求参数是否必填。
- 描述:填写参数的描述信息。
返回类型
选择后端的响应数据格式,可选择“JSON”、“XML”和“STREAM”。
- 配置数据后端。
- 在编辑器页面左侧单击“添加数据源”。
- 在添加数据源弹窗中配置数据源信息,完成后单击“立即添加”。
表2 数据源配置 参数
配置说明
选择数据源
选择接入数据源中已创建的数据源。
选择执行语句类型
选择执行语句的类型,可选择“SQL”和“SP”(Stored Procedure)。
如果是Redis或MongoDB数据源,选择“SQL”,实际执行语句为NoSQL。
高级设置
返回对象
填写返回对象的名称,执行语句的执行结果将封装在该对象中返回。
结果分页选项
执行语句的执行结果是否支持分页返回。若同一个数据后端添加多个数据源时,不支持配置“结果分页选项”。
若开启结果分页选项,可在后端请求中添加查询参数pageNum和pageSize,对查询结果进行分页,并指定返回第几页的数据。
- pageNum:分页时指定要返回第几页的数据,从1开始。
- pageSize:分页时每页包含的数据条数。
开启和关闭结果分页选项时,响应结果的结构会有所不同,具体请参见结果分页示例说明。
说明:
结果分页当前仅支持2000条以内数据的分页,若超过2000条数据,建议在执行语句中携带offset和limit参数进行分页。未开启“预编译”时,使用示例如下:select * from table01 limit ${limit} offset ${offset}
其中offset和limit参数key在后端服务请求的Headers、Parameters或Body中传递。
若数据源开启了“预编译”,则还需要调用相应的函数对offset和limit参数进行数据类型转换,具体请参见自定义后端开发(数据后端)。
预编译
是否对执行语句进行预编译,可以防止SQL注入风险。
说明:
数据后端分页查询语句只能在取消预编译的条件下执行。
结果分页示例说明
假设“返回对象”设置为“mydata”,执行语句从数据源查询返回了5条数据结果。
- 在不开启“分页结果选项”时,会把全部5条数据作为响应结果返回给用户,响应结果示例如下。
{ "mydata": [ { "id": 1, "name": "aaa" }, { "id": 2, "name": "bbb" }, { "id": 3, "name": "ccc" }, { "id": 4, "name": "ddd" }, { "id": 5, "name": "eee" } ] }
- 在开启“分页结果选项”时,假设请求参数pageNum=1,pageSize=2,则执行语句查询到的5条数据会根据pageSize进行分页,每页2条数据,并根据pageNum只把第1页的2条数据作为响应结果返回给用户,响应结果中total为执行语句查询到的数据总条数5。响应结果示例如下:
{ "mydata": { "total": 5, "data": [ { "id": 1, "name": "aaa" }, { "id": 2, "name": "bbb" } ], "pageSize": 2, "pageNum": 1 } }
- 添加数据源后,在编辑器左侧选择数据源,然后可以在右侧的语句编辑框中编写执行语句。
具体请参见自定义后端开发(数据后端)。
如果是Redis或MongoDB数据源,实际为Redis或MongoDB的数据处理命令。
- 完成后在页面右上角单击“保存”,保存数据后端配置。
- 测试后端功能。
- 部署后端。