kafkaclient使用 更多内容
  • 使用

    使用 1. 验证北向应用NA通过云端ITIntegration调用IT应用(IA) 验证方法可选择华为 API Explorer 、Postman等接口测试工具、实际构建南向应用NA三种方式来验证。 如果使用Postman等接口调试工具或者实际构建南向应用NA来测试请参考API参考。

    来自:帮助中心

    查看更多 →

  • Python样例代码

    Python样例代码 功能介绍 在Spark应用中,通过使用StructuredStreaming调用Kafka接口来获取单词记录,然后把单词记录分类统计,得到每个单词记录数。 代码样例 下面代码片段仅为演示,具体代码参见:SecurityKafkaWordCount。 当Streaming

    来自:帮助中心

    查看更多 →

  • 配置对接Kafka

    fka组件接收数据。 确保集群安装完成,包括HDFS、Yarn、Flink和Kafka。 创建Topic。 用户使用Linux命令行创建topic,执行命令前需要使用kinit命令进行人机认证,如kinit flinkuser。 flinkuser需要用户自己创建,并拥有创建Kafka的topic权限。

    来自:帮助中心

    查看更多 →

  • Python样例代码

    Python样例代码 功能介绍 在Spark应用中,通过使用StructuredStreaming调用Kafka接口来获取单词记录,然后把单词记录分类统计,得到每个单词记录数。 代码样例 下面代码片段仅为演示,具体代码参见:SecurityKafkaWordCount。 当Streaming

    来自:帮助中心

    查看更多 →

  • Python样例代码

    Python样例代码 功能介绍 在Spark应用中,通过使用StructuredStreaming调用Kafka接口来获取单词记录,然后把单词记录分类统计,得到每个单词记录数。 代码样例 下面代码片段仅为演示,具体代码参见:SecurityKafkaWordCount。 当Streaming

    来自:帮助中心

    查看更多 →

  • 场景说明

    found”的值修改为“true”,如图1所示。配置完后重启Kafka服务。 图1 配置用户创建topic的权限 用户使用Linux命令行创建topic,执行命令前需要使用kinit命令进行人机认证,如:kinit flinkuser。 flinkuser需要用户自己创建,并拥有创建K

    来自:帮助中心

    查看更多 →

  • 场景说明

    keytab和krb5.conf文件为安全模式下的认证文件,需要在 FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:sparkuser,需要修改为准备好的开发用户。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考编包并运行程序。

    来自:帮助中心

    查看更多 →

  • 场景说明

    keytab和krb5.conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:sparkuser,需要修改为准备好的开发用户。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考编包并运行程序。

    来自:帮助中心

    查看更多 →

  • 关闭Kafka Manager

    .withAk(ak) .withSk(sk); KafkaClient client = KafkaClient.newBuilder() .withCredential(auth)

    来自:帮助中心

    查看更多 →

  • 删除Smart Connector任务

    .withAk(ak) .withSk(sk); KafkaClient client = KafkaClient.newBuilder() .withCredential(auth)

    来自:帮助中心

    查看更多 →

  • 删除指定的实例

    .withAk(ak) .withSk(sk); KafkaClient client = KafkaClient.newBuilder() .withCredential(auth)

    来自:帮助中心

    查看更多 →

  • 场景说明

    found”的值修改为“true”,如图1所示。配置完后重启Kafka服务。 图1 配置用户创建topic的权限 用户使用Linux命令行创建topic,执行命令前需要使用kinit命令进行人机认证,如:kinit flinkuser。 flinkuser需要用户自己创建,并拥有创建K

    来自:帮助中心

    查看更多 →

  • 查询维护时间窗时间段

    .withAk(ak) .withSk(sk); KafkaClient client = KafkaClient.newBuilder() .withCredential(auth)

    来自:帮助中心

    查看更多 →

  • 配置对接Kafka

    fka组件接收数据。 确保集群安装完成,包括HDFS、Yarn、Flink和Kafka。 创建Topic。 用户使用Linux命令行创建topic,执行命令前需要使用kinit命令进行人机认证,如kinit flinkuser。 flinkuser需要用户自己创建,并拥有创建Kafka的topic权限。

    来自:帮助中心

    查看更多 →

  • 批量重启或删除实例

    .withAk(ak) .withSk(sk); KafkaClient client = KafkaClient.newBuilder() .withCredential(auth)

    来自:帮助中心

    查看更多 →

  • 修改实例信息

    .withAk(ak) .withSk(sk); KafkaClient client = KafkaClient.newBuilder() .withCredential(auth)

    来自:帮助中心

    查看更多 →

  • 重置消费组消费进度到指定位置

    .withAk(ak) .withSk(sk); KafkaClient client = KafkaClient.newBuilder() .withCredential(auth)

    来自:帮助中心

    查看更多 →

  • 查询转储任务列表

    .withAk(ak) .withSk(sk); KafkaClient client = KafkaClient.newBuilder() .withCredential(auth)

    来自:帮助中心

    查看更多 →

  • 实例扩容

    当指定IP小于节点数量时,未指定的节点随机分配内网IP地址。 second_tenant_subnet_id 否 String 实例扩容时新节点使用备用子网的id 当实例扩容使用备用子网,则传入此值 需要联系客服添加白名单才能传入此值 响应参数 状态码: 200 表3 响应Body参数 参数 参数类型

    来自:帮助中心

    查看更多 →

  • 查询用户/客户端流控配置

    为空。 user-default Boolean 是否使用用户默认设置。 是,表示对全部用户限流。此时不能同时设置用户名。 否,表示对特定用户限流。此时需要设置用户名。 client-default Boolean 是否使用客户端默认设置。 是,表示对全部客户端限流。此时不能设置客户端ID。

    来自:帮助中心

    查看更多 →

  • 查询topic的磁盘存储情况

    of DiskusageTopicEntity objects topic磁盘容量使用列表。 表5 DiskusageTopicEntity 参数 参数类型 描述 size String 磁盘使用量。 topic_name String topic名称。 topic_partition

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了