分布式消息服务 Kafka 

 

分布式消息服务 Kafka 是一个高吞吐、高可用的消息中间件服务,适用于构建实时数据管道、流式数据处理、第三方解耦、流量削峰去谷等场景,具有大规模、高可靠、高并发访问、可扩展且完全托管的特点,是分布式应用上云必不可少的重要组件

 

全场低至6元起,助力企业应用架构、应用研发、应用安全现代化

 
 

    kafka使用 更多内容
  • 使用Kafka

    opic的内容 如何配置Kafka客户端shell命令日志 如何获取Topic的分布信息 Kafka高可靠使用说明 使用Kafka Shell命令无法操作Kafka集群 Kafka生产者写入单条记录过长问题 Kakfa消费者读取单条记录过长问题 Kafka集群节点内多磁盘数据量占用高

    来自:帮助中心

    查看更多 →

  • 使用Kafka

    使用Kafka 从零开始使用Kafka 管理Kafka主题 查看Kafka主题 管理Kafka用户权限 管理Kafka主题中的消息 基于binlog的MySQL数据同步到MRS集群中 创建Kafka角色 Kafka常用参数 Kafka安全使用说明 Kafka业务规格说明 使用Kafka客户端

    来自:帮助中心

    查看更多 →

  • 使用Kafka

    使用Kafka 从零开始使用Kafka 管理Kafka主题 查看Kafka主题 管理Kafka用户权限 管理Kafka主题中的消息 基于binlog的MySQL数据同步到MRS集群中 创建Kafka角色 Kafka常用参数 Kafka安全使用说明 Kafka业务规格说明 使用Kafka客户端

    来自:帮助中心

    查看更多 →

  • 使用Kafka Shell命令无法操作Kafka集群

    使用Kafka Shell命令无法操作Kafka集群 问题背景与现象 用户执行Kafka命令查看当前topic信息,但发现业务执行失败。 具体信息如下: root@Slave2bin]#./kafka-topics.sh --describe --topic example-metric1

    来自:帮助中心

    查看更多 →

  • spring-kafka的使用

    spring-kafka使用 本文介绍如何使用spring-kafka连接华为云Kafka实例进行消息的生产和消费。相关代码您可以从kafka-springboot-demo中获取。 下文所有Kafka的配置信息,如实例连接地址、Topic名称、用户信息等,请参考收集连接信息获取。

    来自:帮助中心

    查看更多 →

  • 使用Kafka客户端

    执行以下命令切换到Kafka客户端安装目录。 cd Kafka/kafka/bin 执行以下命令使用客户端工具查看帮助并使用。 ./kafka-console-consumer.sh:Kafka消息读取工具 ./kafka-console-producer.sh:Kafka消息发布工具

    来自:帮助中心

    查看更多 →

  • Kafka安全使用说明

    Topic的权限信息,需要在Linux客户端上,使用kafka-acls.sh”脚本进行查看和设置,具体可参考管理Kafka用户权限。 针对不同的Topic访问场景,Kafka中API使用说明 场景一:访问设置了ACL的Topic 使用的API 用户属组 客户端参数 服务端参数 访问的端口 API 用户需满足以下条件之一即可:

    来自:帮助中心

    查看更多 →

  • Kafka业务使用流程

    Kafka业务使用流程 使用Kafka实例生产消费消息的流程如下图所示。 图1 Kafka业务使用流程 创建用户并授权使用DMS for Kafka 创建IAM用户,并授予DMS for Kafka的权限,以达到用户之间权限的隔离。 购买Kafka实例 Kafka实例采用物理隔离的方式部署,租户独占Kafka实例。

    来自:帮助中心

    查看更多 →

  • Kafka安全使用说明

    Kafka安全使用说明 Kafka API简单说明 新Producer API 指org.apache.kafka.clients.producer.KafkaProducer中定义的接口,在使用kafka-console-producer.sh”时,默认使用此API。 旧Producer

    来自:帮助中心

    查看更多 →

  • 使用KAFKA协议上报日志

    使用KAFKA协议上报日志 您可以通过Kafka协议上报日志到日志服务,目前支持各类Kafka Producer SDK或采集工具,仅依赖于Kafka协议。支持以下场景: 场景1:您已有基于开源采集的自建系统,仅修改配置文件便可以将日志上报到 LTS,例如Logstash。 场景2:您希望通过

    来自:帮助中心

    查看更多 →

  • 使用Kafka客户端

    执行以下命令切换到Kafka客户端安装目录。 cd Kafka/kafka/bin 执行以下命令使用客户端工具查看帮助并使用。 ./kafka-console-consumer.sh:Kafka消息读取工具 ./kafka-console-producer.sh:Kafka消息发布工具

    来自:帮助中心

    查看更多 →

  • 使用Kafka触发器

    使用Kafka触发器 本节介绍创建Kafka触发器,供用户了解Kafka触发器的使用方法。 使用Kafka触发器后,FunctionGraph会定期轮询Kafka实例指定Topic下的新消息,FunctionGraph将轮询得到的消息作为参数传递来调用函数,关于Kafka触发器的事件源介绍请参见支持的事件源。

    来自:帮助中心

    查看更多 →

  • Kafka均衡工具使用说明

    kinit 组件业务用户 执行以下命令,切换到Kafka客户端安装目录。 cd Kafka/kafka 使用kafka-balancer.sh”进行用户集群均衡,常用命令如下: 使用--run命令执行集群均衡: ./bin/kafka-balancer.sh --run --zookeeper

    来自:帮助中心

    查看更多 →

  • Kafka均衡工具使用说明

    kinit 组件业务用户 执行以下命令,切换到Kafka客户端安装目录。 cd Kafka/kafka 使用kafka-balancer.sh”进行用户集群均衡,常用命令如下: 使用--run命令执行集群均衡: ./bin/kafka-balancer.sh --run --zookeeper

    来自:帮助中心

    查看更多 →

  • Kafka安全使用说明

    Topic的权限信息,需要在Linux客户端上,使用kafka-acls.sh”脚本进行查看和设置,具体可参考管理Kafka用户权限。 针对不同的Topic访问场景,Kafka中API使用说明 场景一:访问设置了ACL的Topic 使用的API 用户属组 客户端参数 服务端参数 访问的端口 API 用户需满足以下条件之一即可:

    来自:帮助中心

    查看更多 →

  • 使用Kafka客户端

    使用Kafka客户端 操作场景 用户可以在集群客户端完成Topic的创建、查询、删除等基本操作。可参考管理Kafka用户权限进行设置。 前提条件 已安装客户端,例如安装目录为“/opt/client”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用Kafka客户端(MRS

    来自:帮助中心

    查看更多 →

  • 查看Kafka磁盘使用量

    分布式消息服务Kafka版”,进入分布式消息服务Kafka专享版页面。 单击Kafka实例的名称,进入实例的“基本信息”页面。 在“磁盘存储统计”页面,查看磁盘的使用量。 图1 查看磁盘的使用量 页面支持从以下三个方面对代理中的Topic磁盘使用量进行查询:使用量排名前xx个、使用量达到xx

    来自:帮助中心

    查看更多 →

  • 使用控制台连接Kafka

    > 生产消息”,弹出“生产消息”对话框。 参考表1,设置消息的相关参数。 表1 消息参数 参数名称 说明 消息内容 输入消息的内容。 消息Key 输入消息的Key。 发送到指定分区 选择是否开启消息发送到指定的分区。 关闭:消息基于Key的hash值选择分区。 开启:消息将发送到

    来自:帮助中心

    查看更多 →

  • 使用开源Kafka触发器

    使用开源Kafka触发器 本节介绍创建开源Kafka(OPENSOURCEKAFKA)触发器,供用户了解开源Kafka触发器的使用方法。 使用开源Kafka触发器后,FunctionGraph会定期轮询开源Kafka指定Topic下的新消息,FunctionGraph将轮询得到的消息作为参数传递来调用函数。

    来自:帮助中心

    查看更多 →

  • 从零开始使用Kafka

    从零开始使用Kafka 操作场景 用户可以在集群客户端完成Topic的创建、查询、删除等基本操作。可参考管理Kafka用户权限进行设置。 前提条件 已安装客户端,例如安装目录为“/opt/client”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用Kafka客户端

    来自:帮助中心

    查看更多 →

  • Kafka高可靠使用说明

    Kafka高可靠使用说明 Kafka高可靠、高可用说明 Kafka消息传输保障机制,可以通过配置不同的参数来保障消息传输,进而满足不同的性能和可靠性要求的应用场景。 Kafka高可用、高性能 如果业务需要保证高可用和高性能,可以采用参数: 参数 默认值 说明 unclean.leader

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了