thinkphp和bootstrap 更多内容
  • Kafka客户端使用实践

    MRS 3.3.1及之后版本,Kafka仅支持使用“--bootstrap-server”创建Topic,不再支持使用“--zookeeper”来创建Topic。 “--zookeeper” “--bootstrap-server”两种方式的区别如下: “--zookeep

    来自:帮助中心

    查看更多 →

  • 创建空白函数

    创建空白函数 创建空白函数时可以选择“事件函数”“HTTP函数”两种函数类型。 HTTP函数专注于优化Web服务场景,用户可以直接发送HTTP请求到URL触发函数执行,从而使用自己的Web服务。HTTP函数只允许创建APIG/APIC的触发器类型,其他触发器不支持。 HTTP函

    来自:帮助中心

    查看更多 →

  • 添加Kafka的Ranger访问权限策略

    be”“Describe Configs”。 说明: 目前Kafka内核支持"--zookeeper""--bootstrap-server"两种方式查询Topic,社区将会在后续的版本中删掉对"--zookeeper"的支持,所以建议用户使用"--bootstrap-server"的方式查询Topic。

    来自:帮助中心

    查看更多 →

  • 配置Kafka用户Token认证信息

    sh对Token进行操作 为用户生成Token: ./kafka-delegation-tokens.sh --create --bootstrap-server <IP1:PORT, IP2:PORT,...> --max-life-time-period <Long: max

    来自:帮助中心

    查看更多 →

  • 配置Kafka用户Token认证信息

    sh对Token进行操作。 为用户生成Token: ./kafka-delegation-tokens.sh --create --bootstrap-server <IP1:PORT, IP2:PORT,...> --max-life-time-period <Long: max

    来自:帮助中心

    查看更多 →

  • Flink Kafka样例程序(Scala)

    模块的接口,生产并消费数据。 代码样例 下面列出producerconsumer主要逻辑代码作为演示。 完整代码参见com.huawei.bigdata.flink.examples.WriteIntoKafkacom.huawei.bigdata.flink.examples

    来自:帮助中心

    查看更多 →

  • Kafka Shell命令介绍

    --zookeeper <ZooKeeper集群IP:2181/kafka> shkafka-topics.sh --list --bootstrap-server <Kafka集群IP:21007> --command-config config/client.properties

    来自:帮助中心

    查看更多 →

  • Kafka Shell命令介绍

    --zookeeper <ZooKeeper集群IP:2181/kafka> shkafka-topics.sh --list --bootstrap-server <Kafka集群IP:21007> --command-config config/client.properties

    来自:帮助中心

    查看更多 →

  • Kafka源表

    topic 是 kafka topic名。该参数“connector.topic-pattern”两个参数只能使用其中一个。 connector.topic-pattern 否 匹配读取kafka topic名称的正则表达式。该参数“connector.topic”两个参数只能使用其中一个。

    来自:帮助中心

    查看更多 →

  • Spark Structured Streaming对接Kafka样例程序(Scala)

    功能介绍 使用Structured Streaming,从kafka中读取广告请求数据、广告展示数据、广告点击数据,实时获取广告有效展示统计数据广告有效点击统计数据,将统计结果写入kafka中。 代码样例 下面代码片段仅为演示,具体代码参见:com.huawei.bigdata.spark

    来自:帮助中心

    查看更多 →

  • Spark Structured Streaming对接Kafka样例程序(Scala)

    功能介绍 使用Structured Streaming,从kafka中读取广告请求数据、广告展示数据、广告点击数据,实时获取广告有效展示统计数据广告有效点击统计数据,将统计结果写入kafka中。 代码样例 下面代码片段仅为演示,具体代码参见:com.huawei.bigdata.spark

    来自:帮助中心

    查看更多 →

  • Flink Kafka样例程序(Java)

    afkaJavaExample样例工程下的com.huawei.bigdata.flink.examples.WriteIntoKafkacom.huawei.bigdata.flink.examples.ReadFromKafka。 //producer代码 public class

    来自:帮助中心

    查看更多 →

  • Kafka Shell命令介绍

    --zookeeper <ZooKeeper集群IP:2181/kafka> bin/kafka-topics.sh --list --bootstrap-server <Kafka集群IP:21007> --command-config config/client.properties

    来自:帮助中心

    查看更多 →

  • Kafka Shell命令介绍

    --zookeeper <ZooKeeper集群IP:2181/kafka> bin/kafka-topics.sh --list --bootstrap-server <Kafka集群IP:21007> --command-config config/client.properties

    来自:帮助中心

    查看更多 →

  • 创建函数

    创建函数 能否在函数代码中使用线程进程? FunctionGraph函数工程打包有哪些规范(限制)? FunctionGraph如何隔离代码? HTTP函数bootstrap启动文件如何创建?

    来自:帮助中心

    查看更多 →

  • MRS Kafka输出流

    ka中。 kafka_bootstrap_servers 是 Kafka的连接端口,需要确保能连通(需要通过增强型跨源开通 DLI 队列Kafka集群的连接)。 kafka_topic 是 写入的topic。 encode 是 编码格式,当前支持“json”“user_defined”。

    来自:帮助中心

    查看更多 →

  • Spark Structured Streaming对接Kafka样例程序(Scala)

    功能介绍 使用Structured Streaming,从Kafka中读取广告请求数据、广告展示数据、广告点击数据,实时获取广告有效展示统计数据广告有效点击统计数据,将统计结果写入kafka中。 代码样例 下面代码片段仅为演示,具体代码参见:com.huawei.bigdata.spark

    来自:帮助中心

    查看更多 →

  • 创建Next.js项目

    PORT=8000 npm start 打包函数代码。 将目录中的“.next”、“public”、“package.json”bootstrap”打包成zip压缩包,本案例命名为“nextjs-func-code.zip”作为函数代码备用。 父主题: 通过FunctionGraph部署Next

    来自:帮助中心

    查看更多 →

  • Flink Kafka样例程序(Java)

    模块的接口,生产并消费数据。 代码样例 下面列出producerconsumer主要逻辑代码作为演示。 完整代码参见com.huawei.bigdata.flink.examples.WriteIntoKafkacom.huawei.bigdata.flink.examples

    来自:帮助中心

    查看更多 →

  • 开源Kafka输出流

    区、支持数据副本容错的特性,适合在大规模消息处理场景中使用。 前提条件 Kafka服务端的端口如果监听在hostname上,则需要将Kafka Broker节点的hostnameIP的对应关系添加到DLI队列中。Kafka Broker节点的hostnameIP请联系Kaf

    来自:帮助中心

    查看更多 →

  • Kafka结果表

    DLI将Flink作业的输出数据输出到Kafka中。 Apache Kafka是一个快速、可扩展的、高吞吐、可容错的分布式发布订阅消息系统,具有高吞吐量、内置分区、支持数据副本容错的特性,适合在大规模消息处理场景中使用。 前提条件 Kafka是线下集群,需要通过增强型跨源连接功能将Flink作业与Kafka进行对接

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了