分布式消息服务 Kafka 

 

分布式消息服务 Kafka 是一个高吞吐、高可用的消息中间件服务,适用于构建实时数据管道、流式数据处理、第三方解耦、流量削峰去谷等场景,具有大规模、高可靠、高并发访问、可扩展且完全托管的特点,是分布式应用上云必不可少的重要组件

 
 

    kafka 客户端参数 更多内容
  • Kafka应用开发规则

    bytes”大小 Consumer客户端的配置参数“fetch.message.max.bytes”必须大于等于Producer客户端每次产生的消息最大字节数。如果参数的值太小,可能导致Producer产生的消息无法被Consumer成功消费。 父主题: Kafka应用开发规范

    来自:帮助中心

    查看更多 →

  • 快速连接Kafka并生产消费消息

    快速连接Kafka并生产消费消息 本章节将为您介绍分布式消息服务Kafka版入门的使用流程,以创建一个开启密文接入、安全协议为SASL_SSL的Kafka实例,客户端使用内网通过同一个VPC连接Kafka实例生产消费消息为例,帮助您快速上手Kafka。 图1 Kafka使用流程 准备工作

    来自:帮助中心

    查看更多 →

  • 配置Flink对接Kafka安全认证

    配置Flink对接Kafka安全认证 Flink样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有Kafka权限用户),并从Kafka组件接收数据。 确保集群安装完成,包括HDFS、Yarn、Flink和Kafka。 创建Topic。 用户使用Linux命令行

    来自:帮助中心

    查看更多 →

  • 调测Kafka Low Level KafkaStreams API样例程序

    ”分隔。ZooKeeper客户端连接端口可通过ZooKeeper服务配置参数“clientPort”查询,例如端口号为2181。 例如执行以下命令: kafka-topics.sh --create --zookeeper 192.168.0.17:2181/kafka --replication-factor

    来自:帮助中心

    查看更多 →

  • 调测Kafka High level Streams样例程序

    Manager界面,在“集群 > 服务 > ZooKeeper > 实例”界面中查询,多个地址可用“,”分隔。ZooKeeper客户端连接端口可通过ZooKeeper服务配置参数“clientPort”查询,例如端口号为2181。 例如执行以下命令: kafka-topics.sh --create

    来自:帮助中心

    查看更多 →

  • 查看Kafka消费组信息

    r”。 (可选)如果需要刷新消费组列表,在右上角单击。 查看消费组列表(Kafka客户端) 未开启密文接入的Kafka实例,在Kafka客户端的“/bin”目录下,通过以下命令查询消费组列表。 ./kafka-consumer-groups.sh --bootstrap-server

    来自:帮助中心

    查看更多 →

  • 安装Kafka

    安装Kafka 简介 Kafka是一个拥有高吞吐、可持久化、可水平扩展,支持流式数据处理等多种特性的分布式消息流处理中间件,采用分布式消息发布与订阅机制,在日志收集、流式数据传输、在线/离线系统分析、实时监控等领域有广泛的应用。 本教程介绍如何在HCE OS 2.0上安装部署Kafka。

    来自:帮助中心

    查看更多 →

  • 调测Kafka High Level KafkaStreams API样例程序

    ”分隔。ZooKeeper客户端连接端口可通过ZooKeeper服务配置参数“clientPort”查询,例如端口号为2181。 例如执行以下命令: kafka-topics.sh --create --zookeeper 192.168.0.17:2181/kafka --replication-factor

    来自:帮助中心

    查看更多 →

  • 调测Kafka High level Streams样例程序

    Manager界面,在“集群 > 服务 > ZooKeeper > 实例”界面中查询,多个地址可用“,”分隔。ZooKeeper客户端连接端口可通过ZooKeeper服务配置参数“clientPort”查询,例如端口号为2181。 例如执行以下命令: kafka-topics.sh --create

    来自:帮助中心

    查看更多 →

  • 查看和重置Kafka消费进度

    [root@ecs-kafka bin]# 重置消费进度 登录管理控制台。 在管理控制台左上角单击,选择区域。 请选择Kafka实例所在的区域。 在管理控制台左上角单击,选择“应用中间件 > 分布式消息服务Kafka版”,进入分布式消息服务Kafka专享版页面。 单击Kafka实例的名称,进入实例详情页面。

    来自:帮助中心

    查看更多 →

  • 管理资源

    参数 说明 连接参数 必填项。 Kafka集群地址。 是否开启ssl校验 SSL认证参数。 用户名 当“是否开启ssl校验”开关打开后,才有此参数。 必填项。 Kafka管理用户。 密码 当“是否开启ssl校验”开关打开后,才有此参数。 必填项。 Kafka管理用户密码。 认证密码

    来自:帮助中心

    查看更多 →

  • Kafka安全使用说明

    API,在下文中统称为新API。 Kafka访问协议说明 Kafka当前支持四种协议类型的访问:PLAINTEXT、SSL、SASL_PLAINTEXT、SASL_SSL。 Kafka服务启动时,默认会启动PLAINTEXT和SASL_PLAINTEXT两种协议类型的访问监测。可通过设置Kafka服务配置参数“ssl

    来自:帮助中心

    查看更多 →

  • 快速使用Flume采集节点日志

    可参考安装Flume客户端在日志生成节点安装Flume客户端,例如安装目录为“/opt/Flumeclient”。以下操作的客户端目录只是举例,请根据实际安装目录修改。 将Master1节点上的认证服务器配置文件,复制到安装Flume客户端的节点,保存到Flume客户端中“Flume客户端安装目

    来自:帮助中心

    查看更多 →

  • Go客户端使用说明

    引入Kafka客户端 MQS基于Kafka社区版本1.1.0、2.7,您可以在ROMA Connect实例控制台的“实例信息”页面,在“MQS基本信息”下查看Kafka版本信息。Go开源客户端的版本使用请参见客户端版本使用建议。 执行以下命令,安装对应版本的Go Kafka客户端。 go

    来自:帮助中心

    查看更多 →

  • 调测Kafka High Level KafkaStreams API样例程序

    ”分隔。ZooKeeper客户端连接端口可通过ZooKeeper服务配置参数“clientPort”查询,例如端口号为2181。 例如执行以下命令: kafka-topics.sh --create --zookeeper 192.168.0.17:2181/kafka --replication-factor

    来自:帮助中心

    查看更多 →

  • 使用Kafka

    使用Kafka Kafka数据消费概述 Kafka用户权限管理 Kafka客户端使用实践 快速使用Kafka生产消费数据 创建Kafka Topic 在Kafka Topic中接入消息 管理Kafka Topic Kafka企业级能力增强 Kafka性能调优 Kafka运维管理 Kafka常见问题

    来自:帮助中心

    查看更多 →

  • 客户端超时参数设置导致连接超时退出

    客户端超时参数设置导致连接超时退出 场景描述 使用数据库时,经常遇到连接退出,导致后续语句执行失败的情况。 原因分析 在使用连接器或API连接数据库时,客户端会有一些默认的参数配置。其中有一些比较重要的参数如socketTimeout、connectTimeout等,会影响客户端

    来自:帮助中心

    查看更多 →

  • 快速使用Kafka生产消费数据

    记录ZooKeeper角色实例其中任意一个的IP地址即可。 登录安装客户端的节点。 执行以下命令,切换到客户端目录,例如“/opt/client/Kafka/kafka/bin”。 cd /opt/client/Kafka/kafka/bin 执行以下命令,配置环境变量。 source /o

    来自:帮助中心

    查看更多 →

  • Python客户端使用说明

    Python客户端使用说明 操作场景 本文以Linux CentOS环境为例,介绍Python版本的Kafka客户端连接指导,包括Kafka客户端安装,以及生产、消费消息。 前提条件 已获取MQS连接信息,具体请参见开发准备。 已安装开发工具和Python开发语言环境,具体请参见开发准备。

    来自:帮助中心

    查看更多 →

  • Kafka连接问题排查和解决

    Kafka连接问题排查和解决 概述 本章节主要描述Kafka连接问题的排查和解决。 问题分类 当您发现与Kafka实例连接出现异常时,可以根据本文的内容,从以下几个方面进行排查。 检查网络 检查Consumer和Producer的配置 客户端连接问题-Java客户端 客户端连接问题-Go客户端

    来自:帮助中心

    查看更多 →

  • Logstash对接Kafka生产消费消息

    stash如何对接Kafka实例。 方案架构 Kafka实例作为Logstash输入源的示意图如下。 图1 Kafka实例作为Logstash输入源 日志采集客户端将数据发送到Kafka实例中,Logstash根据自身性能从Kafka实例中拉取数据。Kafka实例作为Logsta

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了