分布式消息服务 Kafka 

 

分布式消息服务 Kafka 是一个高吞吐、高可用的消息中间件服务,适用于构建实时数据管道、流式数据处理、第三方解耦、流量削峰去谷等场景,具有大规模、高可靠、高并发访问、可扩展且完全托管的特点,是分布式应用上云必不可少的重要组件

 
 

    kafka client 配置 更多内容
  • 配置对接Kafka可靠性

    配置对接Kafka可靠性 配置场景 Spark Streaming对接Kafka时,当Spark Streaming应用重启后,应用根据上一次读取的topic offset作为起始位置和当前topic最新的offset作为结束位置从Kafka上读取数据的。 Kafka服务的top

    来自:帮助中心

    查看更多 →

  • 配置Flink对接Kafka安全认证

    配置Flink对接Kafka安全认证 Flink样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有Kafka权限用户),并从Kafka组件接收数据。 确保集群安装完成,包括HDFS、Yarn、Flink和Kafka。 创建Topic。 用户使用Linux命令行

    来自:帮助中心

    查看更多 →

  • 配置Flink对接Kafka安全认证

    配置Flink对接Kafka安全认证 Flink样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有Kafka权限用户),并从Kafka组件接收数据。 确保集群安装完成,包括HDFS、Yarn、Flink和Kafka。 创建Topic。 用户使用Linux命令行

    来自:帮助中心

    查看更多 →

  • Kafka同步Kafka

    Kafka同步Kafka 当前仅支持华南-广州。 前提条件 业务有自己的源Kafka和目标Kafka。 源Kafka和目标Kafka实例支持的版本:目前支持2.7及以上,后续支持版本会持续更新。 源Kafka和目标Kafka实例的规格、存储空间需保持一致。 确保vpc、子网、kafka等资源充足。

    来自:帮助中心

    查看更多 →

  • JKS格式SSL证书转换PEM格式

    使用PEM格式证书访问Kafka实例 以下示例演示在Java客户端使用PEM格式证书访问Kafka实例。 参考Java客户端接入示例,连接Kafka实例生产消费消息。其中,生产消息配置文件和消费消息配置文件中的SASL信息修改为如下内容。 #SASL认证机制为“PLAIN”时,配置信息如下。

    来自:帮助中心

    查看更多 →

  • Flink Client CLI介绍

    不能同时启动两个或两个以上的集群来共享一个namespace。 用户在启动集群或提交作业时如果使用了-z配置项,则在删除、停止及查询作业、触发savepoint时也要使用-z配置项指明namespace。 父主题: Flink应用开发常见问题

    来自:帮助中心

    查看更多 →

  • COMM_CLIENT_INFO

    COMM_CLIENT_INFO COMM_CLIENT_INFO视图显示单个节点活跃的客户端连接信息(DN上查询该视图显示 CN连接DN的信息),默认只有系统管理员权限才可以访问此系统视图。 表1 COMM_CLIENT_INFO 字段 名称 类型 描述 node_name text

    来自:帮助中心

    查看更多 →

  • COMM_CLIENT_INFO

    COMM_CLIENT_INFO COMM_CLIENT_INFO视图显示单个节点活跃的客户端连接信息(DN上查询该视图显示CN连接DN的信息),默认只有系统管理员权限才可以访问此系统视图。 表1 COMM_CLIENT_INFO字段 名称 类型 描述 node_name text

    来自:帮助中心

    查看更多 →

  • Spark client CLI介绍

    Spark client CLI介绍 Spark CLI详细的使用方法参考官方网站的描述:http://archive.apache.org/dist/spark/docs/3.3.1/quick-start.html。 常用CLI Spark常用的CLI如下所示: spark-shell

    来自:帮助中心

    查看更多 →

  • Flink Client CLI介绍

    不能同时启动两个或两个以上的集群来共享一个namespace。 用户在启动集群或提交作业时如果使用了-z配置项,则在删除、停止及查询作业、触发savepoint时也要使用-z配置项指明namespace。 父主题: Flink常用API介绍

    来自:帮助中心

    查看更多 →

  • Spark client CLI介绍

    Spark client CLI介绍 Spark CLI详细的使用方法参考官方网站的描述:http://archive.apache.org/dist/spark/docs/3.3.1/quick-start.html。 常用CLI Spark常用的CLI如下所示: spark-shell

    来自:帮助中心

    查看更多 →

  • 配置Kafka高可用和高可靠

    的副本数,那么将会导致业务写入失败。 参数配置项为服务配置需要重启Kafka,建议在变更窗口做服务配置修改。 参数描述 如果业务需要保证高可用和高性能。 在服务配置如表1中参数,参数配置入口请参考修改集群服务配置参数。 表1 服务端高可用性和高性能参数说明 参数 默认值 说明

    来自:帮助中心

    查看更多 →

  • 分布式消息(Kafka)

    分布式消息Kafka分布式消息Kafka)连接器包含“Topic列表”、“发送数据”、“指定分区发送”三个执行动作和“消费消息”一个触发事件。 连接参数 创建分布式Kafka)连接时连接参数说明如表1所示。如果需要连接的Kafka配置了IP地址白名单限制,则需要放通 集成工作台 公网出口访问地址“124

    来自:帮助中心

    查看更多 →

  • 管理Kafka Topic中的消息

    执行以下命令,切换到客户端目录,例如“/opt/client/Kafka/kafka/bin”。 cd /opt/client/Kafka/kafka/bin 执行以下命令,配置环境变量。 source /opt/client/bigdata_env 启用Kerberos认证的集

    来自:帮助中心

    查看更多 →

  • Kafka

    Kafka Kafka是一个分布式流处理平台,最初由LinkedIn开发。它是一个高吞吐量、低延迟的平台,可以处理大量的实时数据流。Kafka主要由三个部分组成:生产者、消费者和代理服务器。生产者将数据发布到Kafka集群,消费者从Kafka集群订阅数据并进行处理,代理服务器则是

    来自:帮助中心

    查看更多 →

  • 快速使用Flume采集节点日志

    KafkaSink client.sinks.kafka_sink.kafka.topic = 数据写入的topic,如flume_test client.sinks.kafka_sink.kafka.bootstrap.servers = XXX.XXX.XXX.XXX:kafka端口号,XXX

    来自:帮助中心

    查看更多 →

  • Kafka客户端参数配置建议

    Kafka客户端参数配置建议 Kafka客户端的配置参数很多,以下提供Producer和Consumer几个常用参数配置。不同版本的Kafka客户端参数名称可能不同,以下配置参数适用于1.1.0及以上版本。其他参数和版本配置,请参考Kafka配置。 表1 Producer参数 参数

    来自:帮助中心

    查看更多 →

  • 安装主控服务器(Client)

    安装主控服务器(Client) 解压安装程序 假定.zip上传到服务器上的路径为:/root/lab-install,lab-install文件夹自己建立 如果安装最小版本,没有unzip命令需要自己安装 服务器有网情况下使用:yum install unzip 服务器没有网情况

    来自:帮助中心

    查看更多 →

  • 导入并配置Kafka样例工程

    已准备开发环境及 MRS 集群相关配置文件,详情请参考准备连接Kafka集群配置文件。 操作步骤 获取样例工程文件夹。 参考获取MRS应用开发样例工程,获取样例代码解压目录中“src”目录下的样例工程文件夹“kafka-examples”。 获取配置文件。 若需要在本地Windows调测Kafka样例代码

    来自:帮助中心

    查看更多 →

  • 导入并配置Kafka样例工程

    导入并配置Kafka样例工程 获取样例工程文件夹。 参考获取MRS应用开发样例工程,获取样例代码解压目录中“src”目录下的样例工程文件夹“kafka-examples”。 获取配置文件。 若需要在本地Windows调测Kafka样例代码,将准备连接Kafka集群配置文件时获取的

    来自:帮助中心

    查看更多 →

  • 导入并配置Kafka样例工程

    导入并配置Kafka样例工程 操作步骤 参考获取MRS应用开发样例工程,下载样例工程到本地。 解压样例工程并找到kafka-examples目录。 导入样例工程到Eclipse开发环境。 打开Eclipse,选择“File > Import”。显示“Import”窗口,选择Existing

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了