华为云11.11 CDN和视频云分会场

 

节点丰富,构建快速,提供安全、中立、可靠的内容加速服务

 
 

    Cdn对api接口作用 更多内容
  • Spark Python API接口介绍

    统。 countByKey() 每个key出现的次数做统计。 foreach(func) 在数据集的每一个元素上,运行函数。 countByValue() RDD中每个不同value出现的次数进行统计。 Spark Streaming常用接口 Spark Streaming中常见的类有:

    来自:帮助中心

    查看更多 →

  • YARN Java API接口介绍

    YARN Java API接口介绍 关于YARN的详细API可以直接参考官方网站上的描述:http://hadoop.apache.org/docs/r3.1.1/api/index.html 常用接口 YARN常用的Java类有如下几个。 ApplicationClientProtocol

    来自:帮助中心

    查看更多 →

  • 资产安装(API接口:installTaskScenes)

    资产安装(API接口:installTaskScenes) 功能介绍 安装资料文件 相关接口 接口名称 调用说明 获取Token 调用该接口获取到Token,再调用其他接口时,需要在请求消息头中添加“Authorization”,其值即为Token。 URL 请求方式 HTTPS地址

    来自:帮助中心

    查看更多 →

  • Spark Scala API接口介绍

    Boolean): RDD[T] RDD中所有元素调用f方法,生成将满足条件数据集以RDD形式返回。 flatMap[U](f: (T) => TraversableOnce[U])(implicit arg0: ClassTag[U]): RDD[U] 先RDD所有元素调用f方法,然后将结果扁平化,生成新的RDD。

    来自:帮助中心

    查看更多 →

  • YARN Java API接口介绍

    YARN Java API接口介绍 关于YARN的详细API可以直接参考官方网站上的描述: http://hadoop.apache.org/docs/r3.1.1/api/index.html 常用接口 YARN常用的Java类有如下几个。 ApplicationClientProtocol

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    系。当文件使用Colocation接口创建时,系统会将文件创建在LocatorId所对应的节点上。文件创建和写入要求使用Colocation相关接口。 文件写入完毕后,后续该文件的相关操作不限制使用Colocation接口,也可以使用开源接口进行操作。 DFSColocatio

    来自:帮助中心

    查看更多 →

  • 常用OozieAPI接口介绍

    常用Oozie API接口介绍 Oozie Shell接口介绍 Oozie Java接口介绍 Oozie Rest接口介绍 父主题: Oozie应用开发常见问题

    来自:帮助中心

    查看更多 →

  • Kafka Java API接口介绍

    Callback callback) 带回调函数的发送接口,通常用于异步发送后,通过回调函数实现发送结果的处理。 void onCompletion(RecordMetadata metadata, Exception exception); 回调函数接口方法,通过实现Callback中的此方法来进行异步发送结果的处理。

    来自:帮助中心

    查看更多 →

  • 常用Oozie API接口介绍

    常用Oozie API接口介绍 Oozie Shell接口介绍 Oozie Java接口介绍 Oozie REST接口介绍 父主题: Oozie应用开发常见问题

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    <R> JavaRDD<R> map(Function<T,R> f) RDD中的每个element使用Function。 JavaRDD<T> filter(Function<T,Boolean> f) RDD中所有元素调用Function,返回为true的元素。 <U> JavaRDD<U>

    来自:帮助中心

    查看更多 →

  • Spark Python API接口介绍

    统。 countByKey() 每个key出现的次数做统计。 foreach(func) 在数据集的每一个元素上,运行函数。 countByValue() RDD中每个不同value出现的次数进行统计。 Spark Streaming常用接口 Spark Streaming中常见的类有:

    来自:帮助中心

    查看更多 →

  • Flink Java API接口介绍

    SingleOutputStreamOperator<T> min(int positionToMin) 窗口数据的某一列求最小值。min返回了最小值,不保证非最小值列的准确性。 positionToMin和field代表某一列求最小值。 public SingleOutputStreamOperator<T>

    来自:帮助中心

    查看更多 →

  • Flink Java API接口介绍

    SingleOutputStreamOperator<T> min(int positionToMin) 窗口数据的某一列求最小值。min返回了最小值,不保证非最小值列的准确性。 positionToMin和field代表某一列求最小值。 public SingleOutputStreamOperator<T>

    来自:帮助中心

    查看更多 →

  • HBase Phoenix API接口介绍

    HBase Phoenix API接口介绍 版本关系 若使用Phoenix,需下载与当前使用 MRS 集群相对应的Phoenix版本,具体请参见http://phoenix.apache.org。其对应关系如表1所示: 表1 MRS与Phoenix版本对应关系一览表 MRS版本 Phoenix版本

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    系。当文件使用Colocation接口创建时,系统会将文件创建在LocatorId所对应的节点上。文件创建和写入要求使用Colocation相关接口。 文件写入完毕后,后续该文件的相关操作不限制使用Colocation接口,也可以使用开源接口进行操作。 DFSColocatio

    来自:帮助中心

    查看更多 →

  • OpenTSDB HTTP API接口介绍

    <tsd_ip>:所需访问Opentsdb服务的TSD实例IP或主机名。 <start=3y-ago\&m=sum:testdata>:在请求中可能无法识别“&”符号,需其进行转义。 <python -m json.tool>(可选): 把响应的请求转换为json格式。 [ { "aggregateTags":

    来自:帮助中心

    查看更多 →

  • Spark Scala API接口介绍

    Boolean): RDD[T] RDD中所有元素调用f方法,生成将满足条件数据集以RDD形式返回。 flatMap[U](f: (T) => TraversableOnce[U])(implicit arg0: ClassTag[U]): RDD[U] 先RDD所有元素调用f方法,然后将结果扁平化,生成新的RDD。

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    <R> JavaRDD<R> map(Function<T,R> f) RDD中的每个element使用Function。 JavaRDD<T> filter(Function<T,Boolean> f) RDD中所有元素调用Function,返回为true的元素。 <U> JavaRDD<U>

    来自:帮助中心

    查看更多 →

  • HBase Java API接口介绍

    boolean[] existsAll(List<Get> gets) 判断这批指定的rowkey在表中是否存在,返回的boolean数组结果与入参位置一一应。 Result get(Get get) 通过指定的rowkey读取数据。 Result[] get(List<Get> gets) 通

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    系。当文件使用Colocation接口创建时,系统会将文件创建在LocatorId所对应的节点上。文件创建和写入要求使用Colocation相关接口。 文件写入完毕后,后续该文件的相关操作不限制使用Colocation接口,也可以使用开源接口进行操作。 DFSColocatio

    来自:帮助中心

    查看更多 →

  • HDFS C API接口介绍

    HDFS C API接口介绍 功能简介 C语言应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请直接参考官网上的描述以了解其使用方法:http://hadoop.apache.org/docs/r3.1.1/hadoop-proj

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了