- 最新动态
- 功能总览
- 产品介绍
- 计费说明
- 快速入门
-
用户指南
- 开始使用ROMA Connect
- 实例管理
- 集成应用管理
-
数据源管理
- ROMA Connect支持的数据源
- 接入API数据源
- 接入ActiveMQ数据源
- 接入ArtemisMQ数据源
- 接入DB2数据源
- 接入DIS数据源
- 接入DWS数据源
- 接入DM数据源
- 接入Gauss100数据源
- 接入FTP数据源
- 接入HL7数据源
- 接入HANA数据源
- 接入HIVE数据源
- 接入LDAP数据源
- 接入IBM MQ数据源
- 接入Kafka数据源
- 接入MySQL数据源
- 接入MongoDB数据源
- 接入MQS数据源
- 接入MRS Hive数据源
- 接入MRS HDFS数据源
- 接入MRS HBase数据源
- 接入MRS Kafka数据源
- 接入OBS数据源
- 接入Oracle数据源
- 接入PostgreSQL数据源
- 接入Redis数据源
- 接入RabbitMQ数据源
- 接入RocketMQ数据源
- 接入SAP数据源
- 接入SNMP数据源
- 接入SQL Server数据源
- 接入GaussDB(for MySQL)数据源
- 接入WebSocket数据源
- 接入自定义数据源
- 数据集成指导
- 服务集成指导
- 服务集成指导(旧版界面)
- 消息集成指导
- 设备集成指导
- 应用业务模型使用指导
- 扩大资源配额
- 查看审计日志
- 查看监控指标
- 权限管理
- 用户指南(新版)
- 最佳实践
-
开发指南
- 数据集成开发指导
-
服务集成开发指导
- 开发说明
- API调用认证开发(APP认证)
- API调用认证开发(IAM认证)
-
自定义后端开发(函数后端)
- 函数后端脚本开发说明
- AesUtils类说明
- APIConnectResponse类说明
- Base64Utils类说明
- CacheUtils类说明
- CipherUtils类说明
- ConnectionConfig类说明
- DataSourceClient类说明
- DataSourceConfig类说明
- ExchangeConfig类说明
- HttpClient类说明
- HttpConfig类说明
- JedisConfig类说明
- JSON2XMLHelper类说明
- JSONHelper类说明
- JsonUtils类说明
- JWTUtils类说明
- KafkaConsumer类说明
- KafkaProducer类说明
- KafkaConfig类说明
- MD5Encoder类说明
- Md5Utils类说明
- QueueConfig类说明
- RabbitMqConfig类说明
- RabbitMqProducer类说明
- RedisClient类说明
- RomaWebConfig类说明
- RSAUtils类说明
- SapRfcClient类说明
- SapRfcConfig类说明
- SoapClient类说明
- SoapConfig类说明
- StringUtils类说明
- TextUtils类说明
- XmlUtils类说明
- 自定义后端开发(数据后端)
- 后端服务签名校验开发
- 消息集成开发指导
- 设备集成开发指导
-
API参考
- 使用前必读
- API概览
- 如何调用API
- 公共资源API
- 数据集成API
- 服务集成API
- 消息集成API
- 设备集成API
- 应用示例
- 权限和授权项
- 附录
- 历史API
- 修订记录
- SDK参考
-
常见问题
- 实例管理
-
数据集成
-
数据集成普通任务
- FDI各类数据库支持哪些数据类型?
- 跟踪号是什么,能跟踪到数据吗?
- FDI任务是否支持清空目标表?
- FDI任务只能采集单张表到单张表吗?
- 用户创建的FDI任务,同一账号的其他用户可见吗?
- FDI通过公网对接其他租户的MRS HIVE如何配置?
- 从OBS解析文件到RDS数据库,采集过一次后,后面采集会进行更新吗?
- OBS源端的CSV文件解析到关系型数据库时,列的值不对怎么办?
- MRS Hive目标字段和源端字段数据类型不匹配时,数据是否能集成到目标端?
- MRS Hive、MRS HBase和MongoDB的Mapping映射手动输入时,是否区分大小写?
- MRS Hive是否支持分区?
- 源端API类型数据源自定义周期如何设置?
- SAP是否支持分页读取视图?
- 数据集成组合任务
-
数据集成普通任务
- 服务集成
- 消息集成
- 设备集成
-
故障排除
-
数据集成任务
- MRS Hive目标端写入时出现数据乱码
- MRS Hive写入时数据全部写在第一个字段里
- 目标端任务报任务运行超时
- MySQL到MRS Hive时目标端报“could only be written to 0 of the 1 minReplication nodes. There are 2 datanode(s) running and 2 node(s) are excluded in this operation”错误
- Mysql到Mysql时源端报“Illegal mix of collations for operation 'UNION'”错误
- 源端Mysql增量采集每小时执行一次时部分数据丢失
- API到MySQL时源端报“401 unauthorized”错误
- Kafka集到Mysql目标端报“cannot find record mapping field”错误
- API到MySQL的定时任务时会出现源端报“connect timeout”错误
- Kafka到Mysql的实时任务时,MQS中的Topic下有数据,但是FDI任务没有采集到数据。
- Mysql到Mysql的定时任务,源端有类型为tinyint(1),值为2的字段,但是采集到目标端值就变成了1
- 目标端数据源为公网Kafka时,定时任务目标端报“The task executes failed.Writer data to kafka failed”错误
- 数据集成组合任务
- 数据源
- 服务集成
- 设备集成
-
数据集成任务
- 视频帮助
- 文档下载
- 通用参考
链接复制成功!
查看API调用日志
ROMA Connect提供了API的可视化分析和统计能力,支持查看API的调用日志。
约束与限制
Site实例中不支持监控分析。
操作步骤
- 登录ROMA Connect控制台,在“实例”页面单击实例上的“查看控制台”,进入实例控制台。
- 在左侧的导航栏选择“服务集成 APIC > 监控分析”。
- 开启日志分析。
- 在“日志分析”页签单击“配置访问日志”。
- 在配置访问日志弹窗配置日志接入信息,完成后单击“确定”。
- 日志分析开启后,可以在界面上实时查看所有开放API的调用日志,日志字段说明请参见日志字段说明。
- 在界面右上角,可选择要查看的日志时间段范围。
- 单击“查看详细日志”,可前往云日志服务控制台查看日志的详细信息和下载日志到本地。
日志字段说明
序号 |
字段 |
说明 |
---|---|---|
1 |
remote_addr |
客户端地址。 |
2 |
request_id |
请求ID。 |
3 |
api_id |
API ID。 |
4 |
user_id |
当使用IAM认证访问时,请求方提供的项目ID。 |
5 |
app_id |
当使用APP认证访问时,请求方提供的APP ID。 |
6 |
time_local |
请求时间。 |
7 |
request_time |
请求时延(单位:s)。 |
8 |
request_method |
HTTP请求方法。 |
9 |
host |
请求域名。 |
10 |
router_uri |
请求URI。 |
11 |
server_protocol |
请求协议。 |
12 |
status |
响应状态码。 |
13 |
bytes_sent |
响应大小(包含状态行、响应头、响应体),单位:字节。 |
14 |
request_length |
请求长度(包含起始行、请求头、请求体),单位:字节。 |
15 |
http_user_agent |
用户代理标识。 |
16 |
http_x_forwarded_for |
X-Forwarded-For头。 |
17 |
upstream_addr |
后端地址。 |
18 |
upstream_uri |
后端URI。 |
19 |
upstream_status |
后端响应状态码。 |
20 |
upstream_connect_time |
与后端建立连接所用时间。 |
21 |
upstream_header_time |
从开始与后端建立连接到从后端获取到首字节所用时间,单位秒。 |
22 |
upstream_response_time |
从开始与后端建立连接到从后端获取到最后一个字节所用时间,单位秒。 |
23 |
region_id |
可用区ID。 |
24 |
all_upstream_response_time |
从开始与后端建立连接到从后端获取到最后一个字节所用时间,单位秒。发生重试时,为所用时间总和。 |
25 |
errorType |
API请求的错误类型。
|
26 |
auth_type |
API认证类型。 |
27 |
access_model1 |
认证模式1。 |
28 |
access_model2 |
认证模式2,开启双重认证时,为自定义认证编号。 |
29 |
inner_time |
APIC的内部处理时长,单位秒。 |
30 |
proxy_protocol_vni |
VPC终端节点的虚拟网络标识。 |
31 |
proxy_protocol_vpce_id |
VPC终端节点的ID。 |
32 |
proxy_protocol_addr |
客户端源IP地址。 |
33 |
body_bytes_sent |
API请求的Body体大小,单位字节。 |
34 |
api_name |
API名称。 |
35 |
app_name |
当使用APP认证访问时,请求方使用的APP名称。 |
36 |
provider_app_id |
API所属的APP ID。 |
37 |
provider_app_name |
API所属的APP名称。 |
38 |
custom_data_log1 |
用户自定义日志字段值1。 |
39 |
custom_data_log2 |
用户自定义日志字段值2。 |
40 |
custom_data_log3 |
用户自定义日志字段值3。 |
41 |
custom_data_log4 |
用户自定义日志字段值4。 |
42 |
custom_data_log5 |
用户自定义日志字段值5。 |
43 |
custom_data_log6 |
用户自定义日志字段值6。 |
44 |
custom_data_log7 |
用户自定义日志字段值7。 |
45 |
custom_data_log8 |
用户自定义日志字段值8。 |
46 |
custom_data_log9 |
用户自定义日志字段值9。 |
47 |
custom_data_log10 |
用户自定义日志字段值10。 |
48 |
response_source |
请求响应来源。
|