分布式消息服务 Kafka 

 

分布式消息服务 Kafka 是一个高吞吐、高可用的消息中间件服务,适用于构建实时数据管道、流式数据处理、第三方解耦、流量削峰去谷等场景,具有大规模、高可靠、高并发访问、可扩展且完全托管的特点,是分布式应用上云必不可少的重要组件

 
 

    kafka client 配置 更多内容
  • 配置Kafka访问控制

    配置Kafka访问控制 配置Kafka实例的明文/密文接入 制作和替换Kafka的SSL证书 JKS格式SSL证书转换PEM格式 配置Kafka的SSL双向认证 配置Kafka ACL用户 父主题: 连接实例

    来自:帮助中心

    查看更多 →

  • 配置Kafka数据均衡工具

    MRS 集群管理员已明确业务需求,并准备一个Kafka管理员用户(属于kafkaadmin组,普通模式不需要)。 已安装Kafka客户端。 操作步骤 以客户端安装用户,登录已安装Kafka客户端的节点。 切换到Kafka客户端安装目录,例如“/opt/client”。 cd /opt/client 执行以下命令,配置环境变量。

    来自:帮助中心

    查看更多 →

  • 配置Kafka数据均衡工具

    模式不需要)。 已安装Kafka客户端。 操作步骤 以客户端安装用户,登录已安装Kafka客户端的节点。 切换到Kafka客户端安装目录,例如“/opt/client”。 cd /opt/client 执行以下命令,配置环境变量。 source bigdata_env 执行以下命

    来自:帮助中心

    查看更多 →

  • 配置Kafka应用安全认证

    配置Kafka应用安全认证 使用Sasl Kerberos认证 使用Kafka Token认证 父主题: 准备Kafka应用开发环境

    来自:帮助中心

    查看更多 →

  • 配置Kafka日志推送策略

    Topic主题 日志要推送的目标Kafka Topic名称。 Key 填写消息的Key值,表示消息存储在Kafka的指定分区,可以当成有序消息队列使用。如果Key为空,则消息分布式存储在不同的消息分区。 失败重试分配 日志推送到Kafka失败后的重试配置。 重试次数:失败后的重试次数,范围为0-5次。

    来自:帮助中心

    查看更多 →

  • 配置Kafka客户端

    配置Kafka客户端 Kafka客户端参数配置建议 Kafka客户端使用建议 父主题: 连接实例

    来自:帮助中心

    查看更多 →

  • 配置ClickHouse对接Kafka

    配置ClickHouse对接Kafka 配置ClickHouse通过用户密码对接Kafka 配置ClickHouse通过Kerberos认证对接Kafka 配置ClickHouse对接普通模式Kafka 父主题: ClickHouse数据导入

    来自:帮助中心

    查看更多 →

  • Rest Client

    IAM认证:接口只允许云用户访问。 DataArts Studio 服务给接口发送消息的时候,会在请求消息头中带上当前用户的认证信息。 无认证:接口不需要身份认证 用户名密码认证:接口需要访问者输入账号和密码信息。DataArts Studio服务发送消息的时候,会在请求消息头中带上Authorization字段。

    来自:帮助中心

    查看更多 →

  • 配置Flink SQL Client支持SQL校验功能

    校验模式。 sql-client.sh -f test.sql -v 使用FlinkSQL Client提交作业 安装集群客户端,例如安装目录为“/opt/hadoopclient”。 以客户端安装用户,登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd /opt/hadoopclient

    来自:帮助中心

    查看更多 →

  • 配置Kafka的SSL双向认证

    在管理控制台左上角单击,选择区域。 此处请选择与您的应用服务相同的区域。 在管理控制台左上角单击,选择“应用中间件 > 分布式消息服务Kafka版”,进入分布式消息服务Kafka专享版页面。 在左侧导航栏单击“Kafka实例”,进入Kafka实例列表页面。 单击待关闭SSL双向认证的实例名称,进入实例详情页面。

    来自:帮助中心

    查看更多 →

  • 分布式消息服务Kafka版

    分布式消息服务Kafka版 本章节介绍在创建事件流时,如何配置分布式消息服务Kafka版实例为事件源。 前提条件 已在分布式消息服务Kafka版中购买Kafka实例,详情请参见购买Kafka实例。 Kafka实例中的安全组在“入方向规则”中放开Kafka实例的子网网段和端口,详情

    来自:帮助中心

    查看更多 →

  • 配置Kafka数据转储至OBS

    在管理控制台左上角单击,选择“应用中间件 > 分布式消息服务Kafka版”,进入分布式消息服务Kafka专享版页面。 在左侧导航栏单击“Kafka实例”,进入Kafka实例列表页面。 单击Kafka实例名称,进入实例详情页面。 在左侧导航栏单击“Smart Connect”,进入Smart Connect任务列表页面。

    来自:帮助中心

    查看更多 →

  • 配置Kafka实例的公网访问

    在管理控制台左上角单击,选择区域。 请选择Kafka实例所在的区域。 在管理控制台左上角单击,选择“应用中间件 > 分布式消息服务Kafka版”,进入分布式消息服务Kafka专享版页面。 在左侧导航栏单击“Kafka实例”,进入Kafka实例列表页面。 单击Kafka实例的名称,进入实例的“基本信息”页面。

    来自:帮助中心

    查看更多 →

  • 配置API的Kafka日志推送

    策略的配置内容,支持表单配置和脚本配置两种方式。 策略基本信息 Broker地址 填写目标Kafka的连接地址,建立连接关系。多个地址间以英文逗号(,)隔开。 Topic主题 填写目标Kafka上报日志的主题。 Key 填写日志的Key值,表示日志存储在Kafka的指定分区,可以当成有序消息队列使用

    来自:帮助中心

    查看更多 →

  • 配置Kafka用户Token认证信息

    ka服务配置。 已安装Kafka客户端。 操作步骤 以客户端安装用户,登录安装Kafka客户端的节点。 切换到Kafka客户端安装目录,例如“/opt/client”。 cd /opt/client 执行以下命令,配置环境变量。 source bigdata_env 执行以下命令,进行用户认证。

    来自:帮助中心

    查看更多 →

  • 配置Kafka用户Token认证信息

    已安装Kafka客户端。 操作步骤 以客户端安装用户,登录安装Kafka客户端的节点。 切换到Kafka客户端安装目录,例如“/opt/client”。 cd /opt/client 执行以下命令,配置环境变量。 source bigdata_env 执行以下命令,进行用户认证。 kinit 组件业务用户

    来自:帮助中心

    查看更多 →

  • dws-client

    <artifactId>dws-client</artifactId> <version>${version}</version> </dependency> 场景使用 前提条件:初始化client 以下举例为最简单的方式,只需要数据库的连接配置即可,其余配置均采用默认配置: 1 2 3 4

    来自:帮助中心

    查看更多 →

  • Kafka同步Kafka

    Kafka同步Kafka 当前仅支持华南-广州。 前提条件 业务有自己的源Kafka和目标Kafka。 源Kafka和目标Kafka实例支持的版本:目前支持2.7及以上,后续支持版本会持续更新。 源Kafka和目标Kafka实例的规格、存储空间需保持一致。 确保vpc、子网、kafka等资源充足。

    来自:帮助中心

    查看更多 →

  • 配置Kafka实例回收站策略

    开启启用回收站,并设置保留天数(只能设置为1~7天),单击“确定”。 恢复Kafka实例 登录管理控制台。 在管理控制台左上角单击,选择区域。 请选择Kafka实例所在的区域。 在管理控制台左上角单击,选择“应用中间件 > 分布式消息服务Kafka版”,进入分布式消息服务Kafka专享版页面。 在左侧导航栏选择“回收站”,进入“回收站”页面。

    来自:帮助中心

    查看更多 →

  • 配置Flink对接Kafka安全认证

    配置Flink对接Kafka安全认证 Flink样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有Kafka权限用户),并从Kafka组件接收数据。 确保集群安装完成,包括HDFS、Yarn、Flink和Kafka。 创建Topic。 用户使用Linux命令行

    来自:帮助中心

    查看更多 →

  • 配置对接Kafka可靠性

    配置对接Kafka可靠性 配置场景 Spark Streaming对接Kafka时,当Spark Streaming应用重启后,应用根据上一次读取的topic offset作为起始位置和当前topic最新的offset作为结束位置从Kafka上读取数据的。 Kafka服务的top

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了