- 最新动态
- 功能总览
- 产品介绍
- 计费说明
- 快速入门
-
用户指南
- 开始使用ROMA Connect
- 实例管理
- 集成应用管理
-
数据源管理
- ROMA Connect支持的数据源
- 接入API数据源
- 接入ActiveMQ数据源
- 接入ArtemisMQ数据源
- 接入DB2数据源
- 接入DIS数据源
- 接入DWS数据源
- 接入DM数据源
- 接入Gauss100数据源
- 接入FTP数据源
- 接入HL7数据源
- 接入HANA数据源
- 接入HIVE数据源
- 接入LDAP数据源
- 接入IBM MQ数据源
- 接入Kafka数据源
- 接入MySQL数据源
- 接入MongoDB数据源
- 接入MQS数据源
- 接入MRS Hive数据源
- 接入MRS HDFS数据源
- 接入MRS HBase数据源
- 接入MRS Kafka数据源
- 接入OBS数据源
- 接入Oracle数据源
- 接入PostgreSQL数据源
- 接入Redis数据源
- 接入RabbitMQ数据源
- 接入RocketMQ数据源
- 接入SAP数据源
- 接入SNMP数据源
- 接入SQL Server数据源
- 接入GaussDB(for MySQL)数据源
- 接入WebSocket数据源
- 接入自定义数据源
- 数据集成指导
- 服务集成指导
- 服务集成指导(旧版界面)
- 消息集成指导
- 设备集成指导
- 应用业务模型使用指导
- 扩大资源配额
- 查看审计日志
- 查看监控指标
- 权限管理
- 用户指南(新版)
- 最佳实践
-
开发指南
- 数据集成开发指导
-
服务集成开发指导
- 开发说明
- API调用认证开发(APP认证)
- API调用认证开发(IAM认证)
-
自定义后端开发(函数后端)
- 函数后端脚本开发说明
- AesUtils类说明
- APIConnectResponse类说明
- Base64Utils类说明
- CacheUtils类说明
- CipherUtils类说明
- ConnectionConfig类说明
- DataSourceClient类说明
- DataSourceConfig类说明
- ExchangeConfig类说明
- HttpClient类说明
- HttpConfig类说明
- JedisConfig类说明
- JSON2XMLHelper类说明
- JSONHelper类说明
- JsonUtils类说明
- JWTUtils类说明
- KafkaConsumer类说明
- KafkaProducer类说明
- KafkaConfig类说明
- MD5Encoder类说明
- Md5Utils类说明
- QueueConfig类说明
- RabbitMqConfig类说明
- RabbitMqProducer类说明
- RedisClient类说明
- RomaWebConfig类说明
- RSAUtils类说明
- SapRfcClient类说明
- SapRfcConfig类说明
- SoapClient类说明
- SoapConfig类说明
- StringUtils类说明
- TextUtils类说明
- XmlUtils类说明
- 自定义后端开发(数据后端)
- 后端服务签名校验开发
- 消息集成开发指导
- 设备集成开发指导
-
API参考
- 使用前必读
- API概览
- 如何调用API
- 公共资源API
- 数据集成API
- 服务集成API
- 消息集成API
- 设备集成API
- 应用示例
- 权限和授权项
- 附录
- 历史API
- 修订记录
- SDK参考
-
常见问题
- 实例管理
-
数据集成
-
数据集成普通任务
- FDI各类数据库支持哪些数据类型?
- 跟踪号是什么,能跟踪到数据吗?
- FDI任务是否支持清空目标表?
- FDI任务只能采集单张表到单张表吗?
- 用户创建的FDI任务,同一账号的其他用户可见吗?
- FDI通过公网对接其他租户的MRS HIVE如何配置?
- 从OBS解析文件到RDS数据库,采集过一次后,后面采集会进行更新吗?
- OBS源端的CSV文件解析到关系型数据库时,列的值不对怎么办?
- MRS Hive目标字段和源端字段数据类型不匹配时,数据是否能集成到目标端?
- MRS Hive、MRS HBase和MongoDB的Mapping映射手动输入时,是否区分大小写?
- MRS Hive是否支持分区?
- 源端API类型数据源自定义周期如何设置?
- SAP是否支持分页读取视图?
- 数据集成组合任务
-
数据集成普通任务
- 服务集成
- 消息集成
- 设备集成
-
故障排除
-
数据集成任务
- MRS Hive目标端写入时出现数据乱码
- MRS Hive写入时数据全部写在第一个字段里
- 目标端任务报任务运行超时
- MySQL到MRS Hive时目标端报“could only be written to 0 of the 1 minReplication nodes. There are 2 datanode(s) running and 2 node(s) are excluded in this operation”错误
- Mysql到Mysql时源端报“Illegal mix of collations for operation 'UNION'”错误
- 源端Mysql增量采集每小时执行一次时部分数据丢失
- API到MySQL时源端报“401 unauthorized”错误
- Kafka集到Mysql目标端报“cannot find record mapping field”错误
- API到MySQL的定时任务时会出现源端报“connect timeout”错误
- Kafka到Mysql的实时任务时,MQS中的Topic下有数据,但是FDI任务没有采集到数据。
- Mysql到Mysql的定时任务,源端有类型为tinyint(1),值为2的字段,但是采集到目标端值就变成了1
- 目标端数据源为公网Kafka时,定时任务目标端报“The task executes failed.Writer data to kafka failed”错误
- 数据集成组合任务
- 数据源
- 服务集成
- 设备集成
-
数据集成任务
- 视频帮助
- 文档下载
- 通用参考
链接复制成功!
接入HL7数据源
概述
ROMA Connect支持把HL7(卫生信息交换标准)作为一个数据源,并用于数据集成任务。在使用HL7数据源前,您需要先接入数据源。
前提条件
每个接入的数据源都要归属到某个集成应用下,在接入数据源前您需要有可用的集成应用,否则请提前创建集成应用。
操作步骤
- 登录ROMA Connect控制台,在“实例”页面单击实例上的“查看控制台”,进入实例控制台。
- 在左侧的导航栏选择“数据源管理”,单击页面右上角的“接入数据源”。
- 在接入数据源页面的“默认数据源”页签下,选择“HL7”类型的数据源,然后单击“下一步”。
- 在页面中配置数据源的连接信息。
表1 数据源连接信息 参数
配置说明
数据源名称
填写数据源的名称,根据规划自定义。建议您按照一定的命名规则填写数据源名称,方便您快速识别和查找。
编码格式
默认“utf-8”格式。
集成应用
选择数据源所归属的集成应用。
描述
填写数据源的描述信息。
数据源方向
选择HL7数据源在数据集成中的使用方向,可选择“源端”和“目标端”。
是否开启SSL认证
ROMA Connect与HL7的连接是否使用SSL认证加密。
私钥库文件
仅当“是否开启SSL认证”选择“是”且“数据源方向”选择“源端”时需要配置。
SSL双向认证过程中,服务端(ROMA Connect)使用的私钥库文件,与客户端(HL7)使用的公钥相匹配。
私钥库密码
仅当“是否开启SSL认证”选择“是”且“数据源方向”选择“源端”时需要配置。
私钥库文件对应的密码。
私钥库私钥密码
仅当“是否开启SSL认证”选择“是”且“数据源方向”选择“源端”时需要配置。
私钥库文件中私钥对应的密码。
公钥库文件
仅当“是否开启SSL认证”选择“是”且“数据源方向”选择“目标端”时需要配置。
SSL认证过程中,客户端(ROMA Connect)使用的公钥库文件,与服务端(HL7)使用的私钥相匹配。
公钥库密码
仅当“是否开启SSL认证”选择“是”且“数据源方向”选择“目标端”时需要配置。
公钥库文件对应的密码。
是否开启白名单
仅当“数据源方向”选择“源端”时需要配置。
选择是否开启白名单,允许同步数据到白名单中的源端HL7服务器。
白名单
仅当“数据源方向”选择“源端”且“是否开启白名单”选择“是”时需要配置。
填写允许同步数据到源端HL7的服务器地址。
连接地址
仅当“数据源方向”选择“目标端”时需要配置。
填写HL7的访问IP地址和端口号。
IP地址获取方式:找到对应的源端为HL7的数据集成任务,查看任务详情,然后在源端信息中找到“访问地址”,作为IP地址。
端口获取方式:找到对应的源端为HL7的数据集成任务,查看任务详情,然后在源端信息中找到“访问端口”,作为端口。
以数据源方向为目标端,开启SSL认证为例,需要上传公钥库文件,数据源的接入配置示例如下图所示。
图1 HL7数据源配置示例 - 单击“创建”,完成数据源的接入。