分布式消息服务 Kafka 

 

分布式消息服务 Kafka 是一个高吞吐、高可用的消息中间件服务,适用于构建实时数据管道、流式数据处理、第三方解耦、流量削峰去谷等场景,具有大规模、高可靠、高并发访问、可扩展且完全托管的特点,是分布式应用上云必不可少的重要组件

 
 

    kafka安装及使用命令 更多内容
  • 配置Kafka用户Token认证信息

    配置Kafka用户Token认证信息 操作场景 使用Token认证机制时对Token的操作。 本章节内容适用于 MRS 3.x后续版本的启用Kerberos认证的集群。 前提条件 MRS集群管理员已明确业务需求,并准备一个系统用户。 已开启Token认证机制,详细操作请参考Kafka服务端配置。

    来自:帮助中心

    查看更多 →

  • 配置Kafka用户Token认证信息

    配置Kafka用户Token认证信息 操作场景 使用Token认证机制时对Token的操作。 本章节内容适用于MRS 3.x后续版本的启用Kerberos认证的集群。 前提条件 MRS集群管理员已明确业务需求,并准备一个系统用户。 已开启Token认证机制。 已安装Kafka客户端。

    来自:帮助中心

    查看更多 →

  • 使用Kafka触发器

    使用Kafka触发器 本节介绍创建Kafka触发器,供用户了解Kafka触发器的使用方法。 使用Kafka触发器后,FunctionGraph会定期轮询Kafka实例指定Topic下的新消息,FunctionGraph将轮询得到的消息作为参数传递来调用函数,关于Kafka触发器的事件源介绍请参见支持的事件源。

    来自:帮助中心

    查看更多 →

  • 如何获取Kafka Consumer Offset信息

    系统管理员已明确业务需求,并准备一个Kafka管理员用户(属于kafkaadmin组)。 已安装Kafka客户端。 操作步骤 以客户端安装用户,登录安装Kafka客户端的节点。 切换到Kafka客户端安装目录,例如“/opt/client”。 cd /opt/client 执行以下命令配置环境变量。 source

    来自:帮助中心

    查看更多 →

  • 配置Kafka数据均衡工具

    是,删除或者迁移相关数据,然后执行8。 否,执行4。 进入“kafka-logs”目录,执行du -sh *命令,选择一个待移动的Partition文件夹,其名称命名规则为“Topic名称-Partition标识”,记录TopicPartition。 修改“kafka-logs”目录下的“recover

    来自:帮助中心

    查看更多 →

  • 使用Kubectl命令操作集群

    使用Kubectl命令操作集群 kubectl kubectl是Kubernetes集群的命令行工具,您可以将kubectl安装在任意一台机器上,通过kubectl命令操作Kubernetes集群。 CCE集群的kubectl安装请参见通过kubectl连接集群。连接后您可以执行kubectl

    来自:帮助中心

    查看更多 →

  • 实例受限使用命令

    SCAN Proxy集群实例不支持在pipeline中使用SCAN命令。 Proxy集群SCAN命令支持指定分片:在命令后面添加 ip:port。(执行icluster nodes命令可以查询不同分片的IP地址端口。) 如果执行SCAN命令指定分片未能返回需要信息,可能是因为您的Pro

    来自:帮助中心

    查看更多 →

  • 更改Kafka Broker的存储目录

    omm:wheel ${BIGDATA_DATA_HOME}/kafka/data2 -R。 MRS 3.x后续版本,登录 FusionInsight Manager,然后选择“集群 > 服务 > Kafka > 配置”。 添加新目录到“log.dirs”的默认值后面。 在搜索框中输入“log

    来自:帮助中心

    查看更多 →

  • 迁移Kafka节点内数据

    assignment”执行分区迁移方案,完成分区迁移。 使用KafkaUI迁移分区(MRS 3.5.0之后版本) 进入KafkaUI界面。 使用具有KafkaUI页面访问权限的用户登录FusionInsight Manager,选择“集群 > 服务 > Kafka”。 如需在页面上进行相关操作,例如

    来自:帮助中心

    查看更多 →

  • 通过SQL命令安装和卸载插件

    PostgreSQL插件是数据库级生效,并不是全局生效。因此创建插件时需要在对应的业务库上进行手动创建。 RDS for PostgreSQL 11以上版本的最新小版本,支持以root用户通过社区的方式来创建(create extension)、删除(drop extension)插件。

    来自:帮助中心

    查看更多 →

  • Kafka业务使用流程

    Kafka业务使用流程 分布式消息服务Kafka版是一款基于开源社区版Kafka提供的消息队列服务,向用户提供计算、存储和带宽资源独占式的Kafka实例。使用Kafka实例生产消费消息的流程如下图所示。 图1 Kafka业务使用流程 创建用户并授权使用DMS for Kafka 创建IAM用户,并授予DMS

    来自:帮助中心

    查看更多 →

  • MRS 1.7.1.3补丁说明

    安装补丁的影响 安装补丁后需要重启服务才能生效,重启服务期间引起服务暂不可用。 安装补丁后,需要重新下载安装全量的客户端,包含Master节点的原始客户端和虚拟私有云的其他节点使用的客户端(即您自行搭建的客户端)。 主备Master节点的原始客户端全量更新,请参见更新客户端配置(2.x之前版本)。

    来自:帮助中心

    查看更多 →

  • 配置ClickHouse通过用户密码对接Kafka

    配置ClickHouse通过用户密码对接Kafka 本章节适用于MRS 3.3.0-LTS之后版本。 操作场景 本章节主要介绍ClickHouse通过用户名和密码的方式连接Kafka,消费Kafka的数据。 前提条件 已创建Kafka集群,且为安全模式(开启Kerberos认证)。

    来自:帮助中心

    查看更多 →

  • Storm-Kafka开发指引

    conf, builder.createTopology()); } 部署运行结果查看 获取相关配置文件,获取方式如下。 安全模式:参见4获取keytab文件。 普通模式:无。 在Storm示例代码根目录执行如下命令打包:"mvn package"。执行成功后,将会在target目录生成storm-examples-1

    来自:帮助中心

    查看更多 →

  • 配置ClickHouse对接普通模式Kafka

    配置ClickHouse对接普通模式Kafka 本章节适用于MRS 3.3.0-LTS之后版本。 操作场景 本章节主要介绍ClickHouse连接普通模式的Kafka,消费Kafka的数据。 前提条件 已创建Kafka集群,且为普通模式(关闭Kerberos认证)。 已创建Cl

    来自:帮助中心

    查看更多 →

  • 快速使用Flume采集节点日志

    使用Flume客户端(MRS 3.x之后版本) 普通集群不需要执行2-6。 安装Flume客户端。 可参考安装MRS 3.x之后版本Flume客户端在日志生成节点安装Flume客户端,例如安装目录为“/opt/Flumeclient”。以下操作的客户端目录只是举例,请根据实际安装目录修改。 将Ma

    来自:帮助中心

    查看更多 →

  • 配置ClickHouse通过Kerberos认证对接Kafka

    配置ClickHouse通过Kerberos认证对接Kafka 本章节适用于MRS 3.3.0-LTS之后版本。 操作场景 本章节介绍ClickHouse通过Kerberos认证的方式连接Kafka,消费Kafka的数据。 前提条件 已创建Kafka集群,且为安全模式(开启Kerberos认证)。

    来自:帮助中心

    查看更多 →

  • Storm-Kafka开发指引

    createTopology()); } 如果修改了集群 域名 ,在设置Kafka消费者/生产者属性中kerberos域名时,需要将其设置为集群实际域名,例如props.put(KERBEROS_DOMAIN_NAME , "hadoop.hadoop1.com")。 部署运行结果查看 导出本地jar包,请参见打包Storm样例工程应用。

    来自:帮助中心

    查看更多 →

  • 基于binlog的MySQL数据同步到MRS集群中

    同步数据具体内容如下。 配置MySQL 安装Maxwell 配置Maxwell 启动Maxwell 验证Maxwell 停止Maxwell Maxwell生成的数据格式常见字段含义 配置MySQL 开启binlog,在MySQL中打开my.cnf文件,在[mysqld] 区块检查是否配置serv

    来自:帮助中心

    查看更多 →

  • DMS for Kafka安全使用建议

    您开通 云审计 服务并创建和配置追踪器后, CTS 可记录Kafka的管理事件和数据事件用于审计。详情请参见查看Kafka审计日志。 使用云监控服务Kafka进行实时监控和告警。 为使您更好地掌握Kafka实例状态,华为云提供了云监控服务(Cloud Eye)。您可使用服务监控自己的K

    来自:帮助中心

    查看更多 →

  • 如何针对Topic进行配置增加和删除

    前提条件 已安装Kafka客户端。 操作步骤 以客户端安装用户,登录安装Kafka客户端的节点。 切换到Kafka客户端安装目录,例如“/opt/client”。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 执行以下命令,进行用户认证。(普通模式跳过此步骤)

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了