Kafka日志推送策略说明
支持收集已开放API的调用日志信息。Kafka日志推送策略提供了把API的详细调用日志推送到Kafka的能力,方便用户获取API的调用日志信息。
如果此策略在当前实例中不支持,请联系技术支持升级实例到最新版本。
使用限制
- 同一个APIG实例内最多可创建5个Kafka日志推送策略。
- API绑定Kafka日志推送策略后,性能将损耗30%。
配置参数说明
参数 |
配置说明 |
---|---|
策略基本信息 |
|
Broker地址 |
填写目标Kafka的连接地址,建立连接关系。多个地址间以英文逗号(,)隔开。 |
Topic主题 |
填写目标Kafka上报日志的主题。 |
Key |
填写日志的Key值,表示日志存储在Kafka的指定分区,可以当成有序消息队列使用。如果Key为空,则日志分布式存储在不同的消息分区。 |
失败重试分配 |
日志推送到Kafka失败后的重试配置。
|
SASL配置信息 |
|
安全协议 |
连接目标Kafka所使用的安全协议。
|
消息收发机制 |
目标Kafka的消息收发机制,默认为PLAIN。 |
SASL用户名 |
仅当“安全协议”选择“SASL_PLAINTEXT”或“SASL_SSL”时需配置。 SASL或SSL认证所使用的用户名。 |
SASL用户密码 |
仅当“安全协议”选择“SASL_PLAINTEXT”或“SASL_SSL”时需配置。 SASL或SSL认证所使用的用户密码。 |
确认SASL用户密码 |
仅当“安全协议”选择“SASL_PLAINTEXT”或“SASL_SSL”时需配置。 填写与SASL用户密码一样的值。 |
证书内容 |
仅当“安全协议”选择“SASL_SSL”时需配置。 SSL认证所使用的CA证书内容。 |
元数据配置信息 |
|
系统元数据 |
推送的日志中,需要携带的系统字段信息。 其中,start_time、request_id、client_ip、request_time、http_status、scheme、request_method、host、uri、upstream_addr、upstream_status、upstream_response_time、http_x_forwarded_for、http_user_agent和error_type字段信息默认在日志中携带,其他系统字段需勾选后才携带。 |
请求数据 |
推送的日志中,需要携带的API请求信息。
|
响应数据 |
推送的日志中,需要携带的API响应信息。
|
自定义认证配置 |
推送的日志中,需要携带的自定义认证信息。
|