华为云开发者中心为开发者提供所有云服务的API及API手册、各产品的SDK、可服务的节点区域和各服务的终端节点EndPoint和在使用华为云产品时需要用到的CLI工具、业务工具等的下载及使用说明。

 

    api接口用到了那些技术 更多内容
  • HDFS Java API接口介绍

    类DFSColocationClient常用接口说明 接口 说明 public FSDataOutputStream create(Path f, boolean overwrite, String groupId,String locatorId) colocation模式,创建一个F

    来自:帮助中心

    查看更多 →

  • Kafka Java API接口介绍

    Kafka Java API接口介绍 Kafka相关接口同开源社区保持一致,详情请参见https://kafka.apache.org/24/documentation.html。 Producer重要接口 表1 Producer重要参数 参数 描述 备注 bootstrap.servers

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    计算统计信息,包含计数,平均值,标准差,最小值和最大值。 Row first() 返回第一行。 Row[] head(int n) 返回前n行。 void show() 表格形式显示DataFrame的前20行。 Row[] take(int n) 返回DataFrame中的前n行。 表7 基本的DataFrame

    来自:帮助中心

    查看更多 →

  • Spark Python API接口介绍

    describe() 计算统计信息,包含计数,平均值,标准差,最小值和最大值。 first() 返回第一行。 head(n) 返回前n行。 show() 表格形式显示DataFrame。 take(num) 返回DataFrame中的前num行。 表5 基本的DataFrame Functions

    来自:帮助中心

    查看更多 →

  • Flink Java API接口介绍

    rue的元素。 聚合能力 表4 聚合能力的相关接口 API 说明 public KeyedStream<T, Tuple> keyBy(int... fields) 将流逻辑分区成不相交的分区,每个分区包含相同key的元素。内部是hash分区来实现的。这个转换返回了一个KeyedStream。

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    计算统计信息,包含计数,平均值,标准差,最小值和最大值。 Row first() 返回第一行。 Row[] head(int n) 返回前n行。 void show() 表格形式显示DataFrame的前20行。 Row[] take(int n) 返回DataFrame中的前n行。 表7 基本的DataFrame

    来自:帮助中心

    查看更多 →

  • HBase Java API接口介绍

    HBase常用接口介绍 HBase常用的Java类有以下几个: 接口类Admin,HBase客户端应用的核心类,主要封装了HBase管理类操作的API,例如建表,删表等操作,部分常见接口参见表表1。 接口类Table,HBase读写操作类,主要封装了HBase表的读写操作的API,部分常见接口参见表表2。

    来自:帮助中心

    查看更多 →

  • HDFS C API接口介绍

    Linux中编译并运行程序 进入Linux客户端目录,运行如下命令导入公共环境变量: cd /opt/client source bigdata_env 在该目录下hdfs用户进行命令行认证,用户密码请咨询集群管理员。 kinit hdfs kinit一次票据时效24小时。24小时后再次运行样例,需要重新kinit命令。

    来自:帮助中心

    查看更多 →

  • Flink Scala API接口介绍

    DataStream[T] 聚合能力 表4 聚合能力的相关接口 API 说明 def keyBy(fields: Int*): KeyedStream[T, JavaTuple] 将流逻辑分区成不相交的分区,每个分区包含相同key的元素。内部是hash分区来实现的。这个转换返回了一个KeyedStream。

    来自:帮助中心

    查看更多 →

  • Flink Scala API接口介绍

    DataStream[T] 聚合能力 表4 聚合能力的相关接口 API 说明 def keyBy(fields: Int*): KeyedStream[T, JavaTuple] 将流逻辑分区成不相交的分区,每个分区包含相同key的元素。内部是hash分区来实现的。这个转换返回了一个KeyedStream。

    来自:帮助中心

    查看更多 →

  • Kafka Java API接口介绍

    Kafka Java API接口介绍 Kafka相关接口同开源社区保持一致,详情请参见http://kafka.apache.org/documentation.html#api。 父主题: Kafka接口介绍

    来自:帮助中心

    查看更多 →

  • Alluxio API接口介绍

    Alluxio API接口介绍 Java API Alluxio接口遵循标准的Alluxio Parent API标准,详情请见https://docs.alluxio.io/os/javadoc/2.0/index.html。 HTTP REST API Master REST

    来自:帮助中心

    查看更多 →

  • 常用OozieAPI接口介绍

    常用Oozie API接口介绍 Oozie Shell接口介绍 Oozie Java接口介绍 Oozie REST接口介绍 父主题: Oozie应用开发常见问题

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    计算统计信息,包含计数,平均值,标准差,最小值和最大值。 Row first() 返回第一行。 Row[] head(int n) 返回前n行。 void show() 表格形式显示DataFrame的前20行。 Row[] take(int n) 返回DataFrame中的前n行。 表7 基本的DataFrame

    来自:帮助中心

    查看更多 →

  • Spark Python API接口介绍

    describe() 计算统计信息,包含计数,平均值,标准差,最小值和最大值。 first() 返回第一行。 head(n) 返回前n行。 show() 表格形式显示DataFrame。 take(num) 返回DataFrame中的前num行。 表5 基本的DataFrame Functions

    来自:帮助中心

    查看更多 →

  • YARN Java API接口介绍

    YARN Java API接口介绍 关于YARN的详细API可以直接参考官方网站上的描述:http://hadoop.apache.org/docs/r3.1.1/api/index.html 常用接口 YARN常用的Java类有如下几个。 ApplicationClientProtocol

    来自:帮助中心

    查看更多 →

  • HBase JDBC API接口介绍

    HBase JDBC API接口介绍 Phoenix实现了大部分的java.sql接口,SQL语法紧跟ANSI SQL标准。 其支持处理函数可参见: http://phoenix.apache.org/language/functions.html 其支持语法可参见: http://phoenix

    来自:帮助中心

    查看更多 →

  • HDFS C API接口介绍

    HDFS C API接口介绍 功能简介 C语言应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请直接参考官网上的描述以了解其使用方法:http://hadoop.apache.org/docs/r3.1.1/hadoop-proj

    来自:帮助中心

    查看更多 →

  • Spark Scala API接口介绍

    返回第一行。 Head(n:Int): Row 返回前n行。 show(numRows: Int, truncate: Boolean): Unit 表格形式显示DataFrame。 take(n:Int): Array[Row] 返回DataFrame中的前n行。 表7 基本的DataFrame

    来自:帮助中心

    查看更多 →

  • Flink Scala API接口介绍

    DataStream[T] 聚合能力 表4 聚合能力的相关接口 API 说明 def keyBy(fields: Int*): KeyedStream[T, JavaTuple] 将流逻辑分区成不相交的分区,每个分区包含相同key的元素。内部是hash分区来实现的。这个转换返回了一个KeyedStream。

    来自:帮助中心

    查看更多 →

  • HBase JDBC API接口介绍

    HBase JDBC API接口介绍 Phoenix实现了大部分的java.sql接口,SQL语法紧跟ANSI SQL标准。 其支持处理函数可参见: http://phoenix.apache.org/language/functions.html 其支持语法可参见: http://phoenix

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了