分布式消息服务 Kafka 

 

分布式消息服务 Kafka 是一个高吞吐、高可用的消息中间件服务,适用于构建实时数据管道、流式数据处理、第三方解耦、流量削峰去谷等场景,具有大规模、高可靠、高并发访问、可扩展且完全托管的特点,是分布式应用上云必不可少的重要组件

 
 

    云服务器安装kafka 更多内容
  • 安装

    安装 普通安装 静默安装 国产化版本安装 父主题: 安装说明

    来自:帮助中心

    查看更多 →

  • Kafka业务迁移

    本方案中,先将生产消息的业务迁移到ROMA Connect,原Kafka不会有新的消息生产。待原Kafka消息全部消费完成后,再将消费消息业务迁移到ROMA Connect,开始消费新的消息。 该案为业界通用的迁移方案,操作步骤简单,迁移过程由业务侧自主控制,整个过程中消息不会存在乱序

    来自:帮助中心

    查看更多 →

  • 管理Kafka Topic

    管理Kafka Topic 查看Kafka Topic信息 修改Kafka Topic配置 增加Kafka Topic分区 管理Kafka Topic中的消息 查看Kafka数据生产消费详情 父主题: 使用Kafka

    来自:帮助中心

    查看更多 →

  • 如何配置Kafka客户端shell命令日志

    如何配置Kafka客户端shell命令日志 用户问题 如何设置客户端shell命令的日志输出级别? 处理步骤 以客户端安装用户,登录安装Kafka客户端的节点。 切换到Kafka客户端安装目录,例如“/opt/client”。 cd /opt/client 切换到Kafka客户端配置目录。

    来自:帮助中心

    查看更多 →

  • MRS Kafka输出流

    Kafka在平台部署并托管了Kafka集群。 前提条件 Kafka服务端的端口如果监听在hostname上,则需要将Kafka Broker节点的hostname和IP的对应关系添加到 DLI 队列中。Kafka Broker节点的hostname和IP请联系Kafka服务部署

    来自:帮助中心

    查看更多 →

  • 开发Kafka应用

    开发Kafka应用 Kafka样例程序开发思路 Kafka Old Producer API使用样例 Kafka Old Consumer API使用样例 Kafka Producer API使用样例 Kafka Consumer API使用样例 Kafka 多线程Producer

    来自:帮助中心

    查看更多 →

  • Kafka日志介绍

    如果您需要修改日志级别,请执行如下操作: 请参考修改集群服务配置参数,进入Kafka的“全部配置”页面。 左边菜单栏中选择所需修改的角色所对应的日志菜单。 选择所需修改的日志级别。 保存配置,在弹出窗口中单击“确定”使配置生效。 日志格式 Kafka的日志格式如下所示 表5 日志格式 日志类型

    来自:帮助中心

    查看更多 →

  • Kafka认证方式

    使用SSL加密方式连接Kafka,需要设置SSL相关配置。 图3 SSL 表2 参数信息 参数 描述 Truststore证书 后缀名为jks的SSL证书,证书文件生成可参考SSL证书。 Truststore证书密码 证书对应的秘钥。 主机名端点识别算法 指定通过服务端证书验证服务端主机名的

    来自:帮助中心

    查看更多 →

  • 开发Kafka应用

    开发Kafka应用 Kafka样例程序开发思路 使用Producer API向安全Topic生产消息 使用Consumer API订阅安全Topic并消费 使用多线程Producer发送消息 使用多线程Consumer消费消息 使用KafkaStreams统计数据 父主题: Kafka开发指南(安全模式)

    来自:帮助中心

    查看更多 →

  • 开发Kafka应用

    开发Kafka应用 Kafka样例程序开发思路 使用Producer API向安全Topic生产消息 使用Consumer API订阅安全Topic并消费 使用多线程Producer发送消息 使用多线程Consumer消费消息 使用KafkaStreams统计数据 父主题: Kafka开发指南(普通模式)

    来自:帮助中心

    查看更多 →

  • 管理Kafka集群

    管理Kafka集群 管理Kafka集群包含以下内容: 添加集群到KafkaManager的WebUI界面 更新集群参数 删除KafkaManager的WebUI界面的集群 添加集群到KafkaManager的WebUI界面 首次创建Kafka集群后会在KafkaManager的W

    来自:帮助中心

    查看更多 →

  • Kafka日志介绍

    如果您需要修改日志级别,请执行如下操作: 请参考修改集群服务配置参数,进入Kafka的“全部配置”页面。 左边菜单栏中选择所需修改的角色所对应的日志菜单。 选择所需修改的日志级别。 保存配置,在弹出窗口中单击“确定”使配置生效。 日志格式 Kafka的日志格式如下所示 表4 日志格式 日志类型

    来自:帮助中心

    查看更多 →

  • 创建Kafka实例

    \"。 engine String 是 消息引擎。取值填写为:kafka。 engine_version String 是 消息引擎的版本。取值支持1.1.0、2.3.0和2.7。 specification String 是 Kafka实例的基准带宽,表示单位时间内传送的最大数据量,单位MB。

    来自:帮助中心

    查看更多 →

  • 配置Kafka用户Token认证信息

    ka服务端配置。 已安装Kafka客户端。 操作步骤 以客户端安装用户,登录安装Kafka客户端的节点。 切换到Kafka客户端安装目录,例如“/opt/client”。 cd /opt/client 执行以下命令,配置环境变量。 source bigdata_env 执行以下命令,进行用户认证。

    来自:帮助中心

    查看更多 →

  • Kafka基本原理

    的方式防止数据丢失。 分布式 分布式系统,易于向外扩展。每个集群支持部署多个Producer、Broker和Consumer,从而形成分布式的集群,无需停机即可扩展系统。 Kafka UI Kafka UI提供Kafka Web服务,通过界面展示Kafka集群中Broker、To

    来自:帮助中心

    查看更多 →

  • 管理Kafka Topic

    管理Kafka Topic 查看Kafka Topic信息 修改Kafka Topic配置 增加Kafka Topic分区 管理Kafka Topic中的消息 查看Kafka数据生产消费详情 父主题: 使用Kafka

    来自:帮助中心

    查看更多 →

  • 安装

    安装 Serverless是一个Node.js CLI工具,因此您需要先在计算机上安装Node.js。 请访问Node.js官方网站,下载并按照安装说明在本地计算机上安装Node.js。 您可以通过在终端中运行node --version来验证Node.js是否安装成功,即可以看到打印出来的对应Node

    来自:帮助中心

    查看更多 →

  • 安装

    安装 在当前工作目录中从GitHub URL安装服务,如下: serverless install --url https://github.com/some/service 选项 --url或-u:GitHub的服务URL,必填。 --name或-n:服务名称。 示例 从GitHub

    来自:帮助中心

    查看更多 →

  • 配置Kafka用户Token认证信息

    已安装Kafka客户端。 操作步骤 以客户端安装用户,登录安装Kafka客户端的节点。 切换到Kafka客户端安装目录,例如“/opt/client”。 cd /opt/client 执行以下命令,配置环境变量。 source bigdata_env 执行以下命令,进行用户认证。 kinit 组件业务用户

    来自:帮助中心

    查看更多 →

  • 配置Kafka实例标签

    配置Kafka实例标签 标签是Kafka实例的标识,为Kafka实例添加标签,可以方便用户识别和管理拥有的Kafka实例资源。 您可以在创建Kafka实例时添加标签,也可以在Kafka实例创建完成后,在“标签”页面添加标签,您最多可以给实例添加20个标签。另外,您还可以删除标签。

    来自:帮助中心

    查看更多 →

  • 修改Kafka Topic配置

    修改Kafka Topic配置 本章节指导您在控制台修改Kafka Topic的如下配置。 表1 Kafka Topic的配置参数 参数名称 说明 分区数 Topic的分区数,修改方法请参见修改Kafka Topic分区数。 老化时间 消息的最长保留时间,修改方法请参见修改Kafka消息老化时间。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了