分布式消息服务 Kafka 

 

分布式消息服务 Kafka 是一个高吞吐、高可用的消息中间件服务,适用于构建实时数据管道、流式数据处理、第三方解耦、流量削峰去谷等场景,具有大规模、高可靠、高并发访问、可扩展且完全托管的特点,是分布式应用上云必不可少的重要组件

 
 

    kafka安装 更多内容
  • Kafka认证方式

    使用SSL加密方式连接Kafka,需要设置SSL相关配置。 图3 SSL 表2 参数信息 参数 描述 Truststore证书 后缀名为jks的SSL证书,证书文件生成可参考SSL证书。 Truststore证书密码 证书对应的秘钥。 主机名端点识别算法 指定通过服务端证书验证服务端主机名的

    来自:帮助中心

    查看更多 →

  • 管理Kafka集群

    管理Kafka集群 管理Kafka集群包含以下内容: 添加集群到KafkaManager的WebUI界面 更新集群参数 删除KafkaManager的WebUI界面的集群 添加集群到KafkaManager的WebUI界面 首次创建Kafka集群后会在KafkaManager的W

    来自:帮助中心

    查看更多 →

  • Kafka日志介绍

    如果您需要修改日志级别,请执行如下操作: 请参考修改集群服务配置参数,进入Kafka的“全部配置”页面。 左边菜单栏中选择所需修改的角色所对应的日志菜单。 选择所需修改的日志级别。 保存配置,在弹出窗口中单击“确定”使配置生效。 日志格式 Kafka的日志格式如下所示 表4 日志格式 日志类型

    来自:帮助中心

    查看更多 →

  • Kafka日志介绍

    如果您需要修改日志级别,请执行如下操作: 请参考修改集群服务配置参数,进入Kafka的“全部配置”页面。 左边菜单栏中选择所需修改的角色所对应的日志菜单。 选择所需修改的日志级别。 保存配置,在弹出窗口中单击“确定”使配置生效。 日志格式 Kafka的日志格式如下所示: 表5 日志格式 日志类型

    来自:帮助中心

    查看更多 →

  • 开发Kafka应用

    开发Kafka应用 Kafka样例程序开发思路 Kafka Old Producer API使用样例 Kafka Old Consumer API使用样例 Kafka Producer API使用样例 Kafka Consumer API使用样例 Kafka 多线程Producer

    来自:帮助中心

    查看更多 →

  • 开发Kafka应用

    开发Kafka应用 Kafka样例程序开发思路 使用Producer API向安全Topic生产消息 使用Consumer API订阅安全Topic并消费 使用多线程Producer发送消息 使用多线程Consumer消费消息 使用KafkaStreams统计数据 父主题: Kafka开发指南(安全模式)

    来自:帮助中心

    查看更多 →

  • 开发Kafka应用

    开发Kafka应用 Kafka样例程序开发思路 使用Producer API向安全Topic生产消息 使用Consumer API订阅安全Topic并消费 使用多线程Producer发送消息 使用多线程Consumer消费消息 使用KafkaStreams统计数据 父主题: Kafka开发指南(普通模式)

    来自:帮助中心

    查看更多 →

  • 创建Kafka实例

    字符\,比如\\或者\"。 engine String 是 消息引擎。取值填写为:kafka。 engine_version String 是 消息引擎的版本。 specification String 是 Kafka实例的基准带宽,表示单位时间内传送的最大数据量,单位MB。 取值范围为:

    来自:帮助中心

    查看更多 →

  • Kafka最佳实践汇总

    Kafka最佳实践汇总 本文汇总了基于分布式消息服务Kafka版常见应用场景的操作实践,为每个实践提供详细的方案描述和操作指导,帮助用户轻松使用Kafka。 表1 Kafka最佳实践一览表 最佳实践 说明 提高Kafka消息处理效率 本章节提供了生产者和消费者对于消息的使用建议,

    来自:帮助中心

    查看更多 →

  • 管理Kafka Topic中的消息

    管理Kafka Topic中的消息 操作场景 用户可以根据业务需要,使用 MRS 集群客户端,在Kafka主题中产生消息,或消费消息。 前提条件 已安装集群客户端。 启用Kerberos认证的集群,需要提前在Manager中创建业务用户,用户拥有在Kafka主题中执行相应操作的权限。

    来自:帮助中心

    查看更多 →

  • Kafka结果表

    Kafka结果表 功能描述 DLI 通过Kafka结果表将Flink作业的输出数据输出到Kafka中。 Apache Kafka是一个快速、可扩展的、高吞吐、可容错的分布式发布订阅消息系统,具有高吞吐量、内置分区、支持数据副本和容错的特性,适合在大规模消息处理场景中使用。 前提条件

    来自:帮助中心

    查看更多 →

  • 配置Kafka ACL用户

    在管理控制台左上角单击,选择区域。 请选择Kafka实例所在的区域。 在管理控制台左上角单击,选择“应用中间件 > 分布式消息服务Kafka版”,进入分布式消息服务Kafka专享版页面。 在左侧导航栏单击“Kafka实例”,进入Kafka实例列表页面。 单击Kafka实例名称,进入实例详情页面。

    来自:帮助中心

    查看更多 →

  • Kafka常用配置参数

    Kafka常用配置参数 本章节内容适用于MRS 3.x及后续版本。 参数入口 请参考修改集群服务配置参数进入Kafka服务全部配置页面。 常用参数 表1 参数说明 配置参数 说明 缺省值 log.dirs Kafka数据存储目录列表,以逗号分隔多个目录。 %{@auto.detect

    来自:帮助中心

    查看更多 →

  • 配置Kafka源端参数

    配置Kafka源端参数 表1 Kafka作为源端时的作业参数 参数类型 参数 说明 取值样例 基本参数 Topic 主题名称。支持单个topic。 cdm_topic 数据格式 解析数据时使用的格式: JSON:以JSON格式解析源数据。 CS V格式:以CSV格式解析源数据。 JSON格式

    来自:帮助中心

    查看更多 →

  • 创建Kafka目标连接

    配置如下目标连接参数。更多创建Kafka目标连接参数的详细介绍,请参考创建目标连接。 类型:选择“分布式消息服务 Kafka版” 名称:kafka-connect 实例:选择“eg-kafka” SASL_SSL 认证机制:SC RAM -SHA-512 用户名:kafka实例的用户名“kafka-name”,

    来自:帮助中心

    查看更多 →

  • 管理Kafka Topic中的消息

    管理Kafka Topic中的消息 操作场景 用户可以根据业务需要,使用MRS集群客户端,在Kafka主题中产生消息,或消费消息。 前提条件 已安装集群客户端。 启用Kerberos认证的集群,需要提前在Manager中创建业务用户,用户拥有在Kafka主题中执行相应操作的权限。

    来自:帮助中心

    查看更多 →

  • Kafka数据消费概述

    Kafka数据消费概述 Kafka是一个分布式的、分区的、多副本的消息发布-订阅系统,它提供了类似于JMS的特性,但在设计上完全不同,它具有消息持久化、高吞吐、分布式、多客户端支持、实时等特性,适用于离线和在线的消息消费,如常规的消息收集、网站活性跟踪、聚合统计系统运营数据(监控

    来自:帮助中心

    查看更多 →

  • 修改Kafka分区平衡

    在管理控制台左上角单击,选择区域。 请选择Kafka实例所在的区域。 在管理控制台左上角单击,选择“应用中间件 > 分布式消息服务Kafka版”,进入分布式消息服务Kafka专享版页面。 在左侧导航栏单击“Kafka实例”,进入Kafka实例列表页面。 单击Kafka实例的名称,进入实例详情页面。

    来自:帮助中心

    查看更多 →

  • 开源Kafka输出流

    开源Kafka输出流 功能描述 DLI将Flink作业的输出数据输出到Kafka中。 Apache Kafka是一个快速、可扩展的、高吞吐、可容错的分布式发布订阅消息系统,具有高吞吐量、内置分区、支持数据副本和容错的特性,适合在大规模消息处理场景中使用。 前提条件 Kafka服务

    来自:帮助中心

    查看更多 →

  • 快速开发Kafka应用

    快速开发Kafka应用 Kafka是一个分布式消息发布-订阅系统。它采用独特的设计提供了类似JMS的特性,主要用于处理活跃的流式数据。 Kafka有很多适用的场景:消息队列、行为跟踪、运维数据监控、日志收集、流处理、事件溯源、持久化日志等。 Kafka有如下几个特点: 高吞吐量

    来自:帮助中心

    查看更多 →

  • Kafka业务迁移

    本方案中,先将生产消息的业务迁移到ROMA Connect,原Kafka不会有新的消息生产。待原Kafka消息全部消费完成后,再将消费消息业务迁移到ROMA Connect,开始消费新的消息。 该案为业界通用的迁移方案,操作步骤简单,迁移过程由业务侧自主控制,整个过程中消息不会存在乱序

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了