华为云开发者中心为开发者提供所有云服务的API及API手册、各产品的SDK、可服务的节点区域和各服务的终端节点EndPoint和在使用华为云产品时需要用到的CLI工具、业务工具等的下载及使用说明。

 

    常用的api接口 更多内容
  • Spark Python API接口介绍

    当调用在DStreamKV对上,返回一个新DStreamKV对,其中每个KeyValue根据滑动窗口中批次reduce函数聚合得到。 join(other,numPartitions) 实现不同Spark Streaming之间做合并操作。 SparkSQL常用接口 Spark

    来自:帮助中心

    查看更多 →

  • HDFS C API接口介绍

    HDFS C API接口介绍 功能简介 C语言应用开发代码样例中所涉及文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细接口请直接参考官网上描述以了解其使用方法: http://hadoop.apache.org/docs/r3.1.1/hadoop-pro

    来自:帮助中心

    查看更多 →

  • HBaseJDBC API接口介绍

    HBase JDBC API接口介绍 Phoenix实现了大部分java.sql接口,SQL语法紧跟ANSI SQL标准。 其支持处理函数可参见: http://phoenix.apache.org/language/functions.html 其支持语法可参见: http://phoenix

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    long len) 通过该接口可查找指定文件在HDFS集群上块位置,其中file为文件完整路径,start和len来标识查找文件范围。 public FSDataInputStream open(Path f) 通过该接口可以打开HDFS上指定文件输出流,并可通过FSDa

    来自:帮助中心

    查看更多 →

  • 资产安装(API接口:installTaskScenes)

    是 无 Authorization bearer ${access_token} 是 bearer +“ ”+5.2.1中获取access_token值 请求参数 参数 类型 是否必填 描述 fileSize Integer 是 资产文件大小 fileId Long 是 资产文件ID

    来自:帮助中心

    查看更多 →

  • 历史API接口(待下线)

    历史API接口(待下线) 下载构建日志(待下线) 获取构建记录有向无环图(待下线) 获取构建记录信息(待下线) 停止构建任务(待下线)

    来自:帮助中心

    查看更多 →

  • YARN Java API接口介绍

    request) AM通过此接口向NM提供需要启动containers列表请求。 stopContainers(StopContainersRequest request) AM通过此接口请求NM停止一系列已分配Containers。 样例代码 YARN作业提交样例代码详细可以参考

    来自:帮助中心

    查看更多 →

  • Kafka Java API接口介绍

    函数实现对发送结果处理。 void onCompletion(RecordMetadata metadata, Exception exception); 回调函数接口方法,通过实现Callback中此方法来进行异步发送结果处理。 Consumer重要接口 表3 Consumer重要参数

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    Streaming常用接口 Spark Streaming中常见类有: JavaStreamingContext:是Spark Streaming功能主入口,负责提供创建DStreams方法,入参中需要设置批次时间间隔。 JavaDStream:是一种代表RDDs连续序列数据类型,代表连续数据流。

    来自:帮助中心

    查看更多 →

  • Spark Python API接口介绍

    当调用在DStreamKV对上,返回一个新DStreamKV对,其中每个KeyValue根据滑动窗口中批次reduce函数聚合得到。 join(other,numPartitions) 实现不同Spark Streaming之间做合并操作。 SparkSQL常用接口 Spark

    来自:帮助中心

    查看更多 →

  • Flink Java API接口介绍

    提供迭代能力 表9 提供迭代能力相关接口 API 说明 public IterativeStream<T> iterate() 在流(flow)中创建一个带反馈循环,通过重定向一个operator输出到之前operator。 说明: 对于定义一些需要不断更新模型算法是非常有帮助的。

    来自:帮助中心

    查看更多 →

  • Spark Scala API接口介绍

    slideInterval) 返回流中滑动窗口元素个数。 reduceByWindow(func, windowLength, slideInterval) 当调用在DStreamKV对上,返回一个新DStreamKV对,其中每个KeyValue根据滑动窗口中批次reduce函数聚合得到。 join(otherStream

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    long len) 通过该接口可查找指定文件在HDFS集群上块位置,其中file为文件完整路径,start和len来标识查找文件范围。 public FSDataInputStream open(Path f) 通过该接口可以打开HDFS上指定文件输出流,并可通过FSDa

    来自:帮助中心

    查看更多 →

  • Flink Java API接口介绍

    提供迭代能力 表9 提供迭代能力相关接口 API 说明 public IterativeStream<T> iterate() 在流(flow)中创建一个带反馈循环,通过重定向一个operator输出到之前operator。 说明: 对于定义一些需要不断更新模型算法是非常有帮助的。

    来自:帮助中心

    查看更多 →

  • YARN Java API接口介绍

    request) AM通过此接口向NM提供需要启动containers列表请求。 stopContainers(StopContainersRequest request) AM通过此接口请求NM停止一系列已分配Containers。 样例代码 YARN作业提交样例代码详细可以参考

    来自:帮助中心

    查看更多 →

  • Flink Java API接口介绍

    提供迭代能力 表9 提供迭代能力相关接口 API 说明 public IterativeStream<T> iterate() 在流(flow)中创建一个带反馈循环,通过重定向一个operator输出到之前operator。 说明: 对于定义一些需要不断更新模型算法是非常有帮助的。

    来自:帮助中心

    查看更多 →

  • Spark scala API接口介绍

    slideInterval) 返回流中滑动窗口元素个数。 reduceByWindow(func, windowLength, slideInterval) 当调用在DStreamKV对上,返回一个新DStreamKV对,其中每个KeyValue根据滑动窗口中批次reduce函数聚合得到。 join(otherStream

    来自:帮助中心

    查看更多 →

  • HBase Phoenix API接口介绍

    MRS 3.x之前版本需要去官网下载第三方phoenix包,然后进行如下配置,MRS 3.x版本已支持Phoenix,可直接在已安装HBase客户端节点使用Phoenix,开启了Kerberos认证集群相关操作请参见Phoenix命令行,未开启Kerberos认证集群相关操作请参见Phoenix命令行:

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    long len) 通过该接口可查找指定文件在HDFS集群上块位置,其中file为文件完整路径,start和len来标识查找文件范围。 public FSDataInputStream open(Path f) 通过该接口可以打开HDFS上指定文件输出流,并可通过FSDa

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    对RDD中每个元素出现次数进行统计。 Spark Streaming常用接口 Spark Streaming中常见类有: JavaStreamingContext:是Spark Streaming功能主入口,负责提供创建DStreams方法,入参中需要设置批次时间间隔。 Ja

    来自:帮助中心

    查看更多 →

  • Spark Scala API接口介绍

    返回该RDD与其它RDD笛卡尔积。 表2 Action 方法 说明 reduce(f: (T, T) => T): 对RDD中元素调用f。 collect(): Array[T] 返回包含RDD中所有元素一个数组。 count(): Long 返回是dataset中element个数。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了