分布式消息服务 Kafka 

 

分布式消息服务 Kafka 是一个高吞吐、高可用的消息中间件服务,适用于构建实时数据管道、流式数据处理、第三方解耦、流量削峰去谷等场景,具有大规模、高可靠、高并发访问、可扩展且完全托管的特点,是分布式应用上云必不可少的重要组件

 
 

    kafka使用教程 kafkaclient 更多内容
  • 视频教程

    新手入门 概览 快速入门 视频教程 最佳实践 重要按钮 重要按钮 概览 快速入门 视频教程 最佳实践 视频教程 视频教程 一级分类 二级分类 实践分类 一级分类: 二级分类: 实践分类: 全部 产品介绍 操作指导 抱歉,没有找到该分类的视频,建议您修改筛选条件。

    来自:帮助中心

    查看更多 →

  • IF条件判断教程

    IF条件判断教程 当您在数据开发模块进行作业开发编排时,想要实现通过设置条件,选择不同的执行路径,可使用IF条件判断。 本教程包含以下三个常见场景举例。 根据前一个节点的执行状态进行IF条件判断 根据前一个节点的输出结果进行IF条件判断 多IF条件下当前节点的执行策略 IF条件的

    来自:帮助中心

    查看更多 →

  • 使用Kafka Shell命令无法操作Kafka集群

    使用Kafka Shell命令无法操作Kafka集群 问题背景与现象 用户执行Kafka命令查看当前topic信息,但发现业务执行失败。 具体信息如下: root@Slave2bin]#./kafka-topics.sh --describe --topic example-metric1

    来自:帮助中心

    查看更多 →

  • Flink Kafka样例程序开发思路

    32:21009表示kafka服务器的IP:port,XXX表示 FusionInsight 相应的版本号,xxx表示密码。 开发思路 启动Flink Kafka Producer应用向Kafka发送数据。 启动Flink Kafka Consumer应用从Kafka接收数据,保证topic与producer一致。

    来自:帮助中心

    查看更多 →

  • 使用kafka采集数据时报错IllegalArgumentException

    使用kafka采集数据时报错IllegalArgumentException 问题 线程“main”报错 org.apache.kafka.common.KafkaException,构造kafka消费者失败,报错: java.lang.IllegalArgumentException:

    来自:帮助中心

    查看更多 →

  • 使用kafka采集数据时报错IllegalArgumentException

    使用kafka采集数据时报错IllegalArgumentException 问题 线程“main”报错 org.apache.kafka.common.KafkaException,构造kafka消费者失败,报错: java.lang.IllegalArgumentException:

    来自:帮助中心

    查看更多 →

  • 配置Flink对接Kafka安全认证

    配置Flink对接Kafka安全认证 Flink样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有Kafka权限用户),并从Kafka组件接收数据。 确保集群安装完成,包括HDFS、Yarn、Flink和Kafka。 创建Topic。 用户使用Linux命令行创

    来自:帮助中心

    查看更多 →

  • 配置Flume对接安全模式Kafka

    ,所配置的principal需要有相应的kafka的权限。 配置业务,其中kafka.bootstrap.servers的端口号使用21007,kafka.security.protocol使用SASL_PLAINTEXT。 如果Kafka所在集群的 域名 发生了更改,需要对${Fl

    来自:帮助中心

    查看更多 →

  • 配置Flume对接安全模式Kafka

    ,所配置的principal需要有相应的kafka的权限。 配置业务,其中kafka.bootstrap.servers的端口号使用21007,kafka.security.protocol使用SASL_PLAINTEXT。 如果Kafka所在集群的域名发生了更改,需要对${Fl

    来自:帮助中心

    查看更多 →

  • 使用Kafka触发器

    使用Kafka触发器 本节介绍创建Kafka触发器,供用户了解Kafka触发器的使用方法。 使用Kafka触发器后,FunctionGraph会定期轮询Kafka实例指定Topic下的新消息,FunctionGraph将轮询得到的消息作为参数传递来调用函数,关于Kafka触发器的事件源介绍请参见支持的事件源。

    来自:帮助中心

    查看更多 →

  • Kafka安全使用说明

    Kafka安全使用说明 Kafka API简单说明 新Producer API 指org.apache.kafka.clients.producer.KafkaProducer中定义的接口,在使用kafka-console-producer.sh”时,默认使用此API。 旧Producer

    来自:帮助中心

    查看更多 →

  • 迁移Kafka节点内数据

    )。 已安装Kafka客户端。 Kafka实例状态和磁盘状态均正常。 根据待迁移分区当前的磁盘空间占用情况,评估迁移后,不会导致新迁移后的磁盘空间不足。 使用Kafka客户端迁移数据 以客户端安装用户,登录已安装Kafka客户端的节点。 执行以下命令,切换到Kafka客户端安装目

    来自:帮助中心

    查看更多 →

  • 迁移Kafka节点内数据

    )。 已安装Kafka客户端。 Kafka实例状态和磁盘状态均正常。 根据待迁移分区当前的磁盘空间占用情况,评估迁移后,不会导致新迁移后的磁盘空间不足。 使用Kafka客户端迁移数据 以客户端安装用户,登录已安装Kafka客户端的节点。 执行以下命令,切换到Kafka客户端安装目

    来自:帮助中心

    查看更多 →

  • 配置Flink对接Kafka安全认证

    配置Flink对接Kafka安全认证 Flink样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有Kafka权限用户),并从Kafka组件接收数据。 确保集群安装完成,包括HDFS、Yarn、Flink和Kafka。 创建Topic。 用户使用Linux命令行创

    来自:帮助中心

    查看更多 →

  • Kafka业务使用流程

    Kafka业务使用流程 使用Kafka实例生产消费消息的流程如下图所示。 图1 Kafka业务使用流程 创建用户并授权使用DMS for Kafka 创建IAM用户,并授予DMS for Kafka的权限,以达到用户之间权限的隔离。 购买Kafka实例 Kafka实例采用物理隔离的方式部署,租户独占Kafka实例。

    来自:帮助中心

    查看更多 →

  • spring-kafka的使用

    spring-kafka使用 本文介绍如何使用spring-kafka连接华为云Kafka实例进行消息的生产和消费。相关代码您可以从kafka-springboot-demo中获取。 下文所有Kafka的配置信息,如实例连接地址、Topic名称、用户信息等,请参考收集连接信息获取。

    来自:帮助中心

    查看更多 →

  • 更多教程

    更多教程 更多开发教程请参见官方文档。 父主题: 应用程序开发教程

    来自:帮助中心

    查看更多 →

  • 使用Kafka客户端

    执行以下命令切换到Kafka客户端安装目录。 cd Kafka/kafka/bin 执行以下命令使用客户端工具查看帮助并使用。 ./kafka-console-consumer.sh:Kafka消息读取工具 ./kafka-console-producer.sh:Kafka消息发布工具

    来自:帮助中心

    查看更多 →

  • Flink Kafka样例程序开发思路

    32:21009表示kafka服务器的IP:port,XXX表示FusionInsight相应的版本号,xxx表示密码。 开发思路 启动Flink Kafka Producer应用向Kafka发送数据。 启动Flink Kafka Consumer应用从Kafka接收数据,保证topic与producer一致。

    来自:帮助中心

    查看更多 →

  • Kafka生产消息

    Kafka生产消息 功能介绍 在控制台发送指定消息Kafka实例 调用方法 请参见如何调用API。 URI POST /v2/{project_id}/instances/{instance_id}/messages/action 表1 路径参数 参数 是否必选 参数类型 描述

    来自:帮助中心

    查看更多 →

  • Spark Structured Streaming状态操作样例程序开发思路

    amp。 同时输出本批次被更新状态的session。 数据规划 在kafka中生成模拟数据(需要有Kafka权限用户)。 确保集群安装完成,包括安装HDFS、Yarn、Spark2x和Kafka服务。 将Kafka的Broker配置参数“allow.everyone.if.no.acl

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了