分布式消息服务 Kafka 

 

分布式消息服务 Kafka 是一个高吞吐、高可用的消息中间件服务,适用于构建实时数据管道、流式数据处理、第三方解耦、流量削峰去谷等场景,具有大规模、高可靠、高并发访问、可扩展且完全托管的特点,是分布式应用上云必不可少的重要组件

 
 

    kafka使用教程 kafkaclient 更多内容
  • 配置对接Kafka

    配置对接Kafka Flink样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有Kafka权限用户),并从Kafka组件接收数据。 确保集群安装完成,包括HDFS、Yarn、Flink和Kafka。 创建Topic。 用户使用Linux命令行创建topic,执

    来自:帮助中心

    查看更多 →

  • 使用控制台连接Kafka

    > 生产消息”,弹出“生产消息”对话框。 参考表1,设置消息的相关参数。 表1 消息参数 参数名称 说明 消息内容 输入消息的内容。 消息Key 输入消息的Key。 发送到指定分区 选择是否开启消息发送到指定的分区。 关闭:消息基于Key的hash值选择分区。 开启:消息将发送到

    来自:帮助中心

    查看更多 →

  • Python样例代码

    创建表示来自kafka的input lines stream的DataFrame # 安全模式要修改spark/conf/jaas.conf和jaas-zk.conf为KafkaClient lines = spark.readStream.format("kafka")\

    来自:帮助中心

    查看更多 →

  • Python样例代码

    创建表示来自kafka的input lines stream的DataFrame # 安全模式要修改spark/conf/jaas.conf和jaas-zk.conf为KafkaClient lines = spark.readStream.format("kafka")\

    来自:帮助中心

    查看更多 →

  • 入门教程

    入门教程 运行第一条Workflow 开发第一条Workflow

    来自:帮助中心

    查看更多 →

  • 入门教程

    数据导出 准备工作 在使用ModelArts数据管理的功能前,需要先完成以下准备工作。 用户在使用数据管理的过程中,ModelArts需要访问用户的OBS等依赖服务,需要用户进行在“全局配置”页面中进行委托授权。具体操作参考使用委托授权(推荐)。 创建数据集 本示例使用OBS中的数据作

    来自:帮助中心

    查看更多 →

  • IF条件判断教程

    IF条件判断教程 当您在数据开发模块进行作业开发编排时,想要实现通过设置条件,选择不同的执行路径,可使用IF条件判断。 本教程包含以下三个常见场景举例。 根据前一个节点的执行状态进行IF条件判断 根据前一个节点的输出结果进行IF条件判断 多IF条件下当前节点的执行策略 IF条件的

    来自:帮助中心

    查看更多 →

  • 场景说明

    FangBo 数据规划 Spark Streaming样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有Kafka权限用户)。 确保集群安装完成,包括HDFS、Yarn、Spark和Kafka。 本地新建文件“input_data1.txt”,将“log1.txt

    来自:帮助中心

    查看更多 →

  • 查看Kafka磁盘使用量

    分布式消息服务Kafka版”,进入分布式消息服务Kafka专享版页面。 单击Kafka实例的名称,进入实例的“基本信息”页面。 在“磁盘存储统计”页面,查看磁盘的使用量。 图1 查看磁盘的使用量 页面支持从以下三个方面对代理中的Topic磁盘使用量进行查询:使用量排名前xx个、使用量达到xx

    来自:帮助中心

    查看更多 →

  • 删除单个转储任务

    com.huaweicloud.sdk.kafka.v2.region.KafkaRegion; import com.huaweicloud.sdk.kafka.v2.*; import com.huaweicloud.sdk.kafka.v2.model.*; public

    来自:帮助中心

    查看更多 →

  • 场景说明

    amp。 同时输出本批次被更新状态的session。 数据规划 在kafka中生成模拟数据(需要有Kafka权限用户)。 确保集群安装完成,包括安装HDFS、Yarn、Spark2x和Kafka服务。 将Kafka的Broker配置参数“allow.everyone.if.no.acl

    来自:帮助中心

    查看更多 →

  • 场景说明

    amp; 同时输出本批次被更新状态的session。 数据规划 在kafka中生成模拟数据(需要有Kafka权限用户)。 确保集群安装完成,包括安装HDFS、Yarn、Spark2x和Kafka服务。 将Kafka的Broker配置参数“allow.everyone.if.no.acl

    来自:帮助中心

    查看更多 →

  • 场景说明

    FangBo 数据规划 Spark Streaming样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有Kafka权限用户)。 确保集群安装完成,包括HDFS、Yarn、Spark和Kafka。 本地新建文件“input_data1.txt”,将“log1.txt

    来自:帮助中心

    查看更多 →

  • Python样例代码

    创建表示来自kafka的input lines stream的DataFrame # 安全模式要修改spark/conf/jaas.conf和jaas-zk.conf为KafkaClient lines = spark.readStream.format("kafka")\

    来自:帮助中心

    查看更多 →

  • 从零开始使用Kafka

    中产生和消费消息的操作指导。 本指导的基本内容如下所示: 购买集群 安装Kafka客户端 登录Master节点(VNC方式) 使用Kafka客户端创建topic 管理Kafka主题中的消息 视频介绍 使用Kafka客户端创建Topic案例可参考使用Kafka客户端创建Topic,

    来自:帮助中心

    查看更多 →

  • Kafka生产消息

    Kafka生产消息 功能介绍 在控制台发送指定消息Kafka实例 调用方法 请参见如何调用API。 URI POST /v2/{project_id}/instances/{instance_id}/messages/action 表1 路径参数 参数 是否必选 参数类型 描述

    来自:帮助中心

    查看更多 →

  • 教程:使用GDS从远端服务器导入数据

    教程使用GDS从远端服务器导入数据 教程指引 先决条件 步骤1:准备源数据 步骤2:在数据服务器上安装配置和启动GDS 步骤3:在GaussDB数据库中创建外表 步骤4:将数据导入GaussDB 步骤5:分析和处理错误表中的错误信息 步骤6:优化导入数据的查询性能 步骤7:停止GDS

    来自:帮助中心

    查看更多 →

  • Python样例代码

    创建表示来自kafka的input lines stream的DataFrame # 安全模式要修改spark/conf/jaas.conf和jaas-zk.conf为KafkaClient lines = spark.readStream.format("kafka")\

    来自:帮助中心

    查看更多 →

  • 使用开源Kafka触发器

    使用开源Kafka触发器 本节介绍创建开源Kafka(OPENSOURCEKAFKA)触发器,供用户了解开源Kafka触发器的使用方法。 使用开源Kafka触发器后,FunctionGraph会定期轮询开源Kafka指定Topic下的新消息,FunctionGraph将轮询得到的消息作为参数传递来调用函数。

    来自:帮助中心

    查看更多 →

  • 修改实例信息

    com.huaweicloud.sdk.kafka.v2.region.KafkaRegion; import com.huaweicloud.sdk.kafka.v2.*; import com.huaweicloud.sdk.kafka.v2.model.*; public

    来自:帮助中心

    查看更多 →

  • Kafka扩容节点后数据均衡

    Kafka扩容节点后数据均衡 操作场景 该任务指导管理员在Kafka扩容节点后,在客户端中执行Kafka均衡工具来均衡Kafka集群的负载。 本章节内容适用于MRS 3.x之前版本。3.x及之后版本请参考Kafka均衡工具使用说明。 前提条件 MRS集群管理员已明确业务需求,并准

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了