华为云开发者中心为开发者提供所有云服务的API及API手册、各产品的SDK、可服务的节点区域和各服务的终端节点EndPoint和在使用华为云产品时需要用到的CLI工具、业务工具等的下载及使用说明。

 

    api接口数据加密 更多内容
  • YARN Java API接口介绍

    YARN Java API接口介绍 关于YARN的详细API可以直接参考官方网站上的描述:http://hadoop.apache.org/docs/r3.1.1/api/index.html 常用接口 YARN常用的Java类有如下几个。 ApplicationClientProtocol

    来自:帮助中心

    查看更多 →

  • Flink Java API接口介绍

    fromCollection(Collection<OUT> data) 获取用户定义的集合数据,作为输入流数据。 type为集合中元素的数据类型。 typeInfo为集合中根据元素数据类型获取的类型信息。 data为集合数据或者可迭代的数据体。 public <OUT> DataStreamSource<OUT>

    来自:帮助中心

    查看更多 →

  • 常用Oozie API接口介绍

    常用Oozie API接口介绍 Oozie Shell接口介绍 Oozie Java接口介绍 Oozie REST接口介绍 父主题: Oozie应用开发常见问题

    来自:帮助中心

    查看更多 →

  • Spark scala API接口介绍

    writeToKafka() 支持将DStream中的数据批量写入到Kafka。 DStreamKafkaWriter.writeToKafkaBySingle() 支持将DStream中的数据逐条写入到Kafka。 表5 Spark Streaming增强特性接口 方法 说明 DStreamKafkaWriter

    来自:帮助中心

    查看更多 →

  • HBase Java API接口介绍

    put(Put put) 往该表写入一条数据。 void put(List<Put> puts) 往该表写入一批数据。 void close() 释放该Table对象持有的资源。 表1和表2只列举了部分常用的方法。 父主题: HBase对外接口介绍

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    类。常用接口参见表1。 FileStatus:记录文件和目录的状态信息。常用接口参见表2。 DFSColocationAdmin:管理colocation组信息的接口。常用接口参见表3。 DFSColocationClient:操作colocation文件的接口。常用接口参见表4。

    来自:帮助中心

    查看更多 →

  • HDFS C API接口介绍

    HDFS C API接口介绍 功能简介 C语言应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请直接参考官网上的描述以了解其使用方法:http://hadoop.apache.org/docs/r3.1.1/hadoop-proj

    来自:帮助中心

    查看更多 →

  • HBase Phoenix API接口介绍

    name VARCHAR); 插入数据: UPSERT INTO TEST(id,name) VALUES ('1','jamee'); 查询数据: SELECT * FROM TEST; 删表: DROP TABLE TEST; 父主题: HBase接口介绍

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    类。常用接口参见表1。 FileStatus:记录文件和目录的状态信息。常用接口参见表2。 DFSColocationAdmin:管理colocation组信息的接口。常用接口参见表3。 DFSColocationClient:操作colocation文件的接口。常用接口参见表4。

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    JavaDStream:是一种代表RDDs连续序列的数据类型,代表连续数据流。 JavaPairDStream:KV DStream的接口,提供reduceByKey和join等操作。 JavaReceiverInputDStream<T>:定义任何从网络接收数据的输入流。 Spark Streaming的常见方法与Spark

    来自:帮助中心

    查看更多 →

  • Spark Scala API接口介绍

    DStream:是一种代表RDDs连续序列的数据类型,代表连续数据流。 dstream.PariDStreamFunctions:键值对的DStream,常见的操作如groupByKey和reduceByKey。 对应的Spark Streaming的JAVA API是JavaSteamingC

    来自:帮助中心

    查看更多 →

  • OpenTSDB HTTP API接口介绍

    开发程序章节。 使用curl命令操作Opentsdb 写入数据。例如,录入一个指标名称为testdata,时间戳为1524900185,值为true,标签为key,value的指标数据。 curl -ki -X POST -d '{"metric":"testdata", "timestamp":1524900185

    来自:帮助中心

    查看更多 →

  • Spark Python API接口介绍

    DStream:是一种代表RDDs连续序列的数据类型,代表连续数据流。 dsteam.PariDStreamFunctions:键值对的DStream,常见的操作如groupByKey和reduceByKey。 对应的Spark Streaming的JAVA API是JavaStreamingC

    来自:帮助中心

    查看更多 →

  • Flink Java API接口介绍

    fromCollection(Collection<OUT> data) 获取用户定义的集合数据,作为输入流数据。 type为集合中元素的数据类型。 typeInfo为集合中根据元素数据类型获取的类型信息。 data为集合数据或者可迭代的数据体。 public <OUT> DataStreamSource<OUT>

    来自:帮助中心

    查看更多 →

  • Flink Java API接口介绍

    fromCollection(Collection<OUT> data) 获取用户定义的集合数据,作为输入流数据。 type为集合中元素的数据类型。 typeInfo为集合中根据元素数据类型获取的类型信息。 data为集合数据或者可迭代的数据体。 public <OUT> DataStreamSource<OUT>

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    类。常用接口参见表1。 FileStatus:记录文件和目录的状态信息。常用接口参见表2。 DFSColocationAdmin:管理colocation组信息的接口。常用接口参见表3。 DFSColocationClient:操作colocation文件的接口。常用接口参见表4。

    来自:帮助中心

    查看更多 →

  • 使用API接口创建流

    使用API接口创建流 前提条件 获取API接口 创建连接器 创建流 运行流 父主题: 进阶能力

    来自:帮助中心

    查看更多 →

  • 模型API接入接口规范

    缺省值:0 stream 否 Boolean 布尔类型。 设为true时,返回结果为流式。 设为false时,返回结果为JSON格式结构化数据。 缺省值:false temperature 否 Number 较高的数值会使输出更加随机,而较低的数值会使其更加集中和确定。 最小值:0

    来自:帮助中心

    查看更多 →

  • Alluxio API接口介绍

    Alluxio API接口介绍 Java API Alluxio接口遵循标准的Alluxio Parent API标准,详情请见https://docs.alluxio.io/os/javadoc/2.0/index.html。 HTTP REST API Master REST

    来自:帮助中心

    查看更多 →

  • Kafka Java API接口介绍

    Kafka Java API接口介绍 Kafka相关接口同开源社区保持一致。 Kafka Java API接口介绍可直接参考开源社区。 详情请参见http://kafka.apache.org/documentation.html#api。 父主题: Kafka接口介绍

    来自:帮助中心

    查看更多 →

  • Spark Scala API接口介绍

    writeToKafka() 支持将DStream中的数据批量写入到Kafka。 DStreamKafkaWriter.writeToKafkaBySingle() 支持将DStream中的数据逐条写入到Kafka。 表5 Spark Streaming增强特性接口 方法 说明 DStreamKafkaWriter

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了