华为云开发者中心为开发者提供所有云服务的API及API手册、各产品的SDK、可服务的节点区域和各服务的终端节点EndPoint和在使用华为云产品时需要用到的CLI工具、业务工具等的下载及使用说明。

 

    api接口实现类 更多内容
  • HDFS Java API接口介绍

    conf) Hadoop库中最终面向用户提供的接口是FileSystem,该类是个抽象,只能通过该类的get方法得到具体。get方法存在几个重载版本,常用的是这个。 public FSDataOutputStream create(Path f) 通过该接口可在HDFS上创建文件,其中f为文件的完整路径。

    来自:帮助中心

    查看更多 →

  • 发布API网关类商品

    发布API网关商品 APIG网关商品发布总览 构建API信息 发布APIG网关商品 父主题: 发布API商品

    来自:帮助中心

    查看更多 →

  • 发布APIG网关类商品

    售及下架状态。 发布API多维度商品时,计费项支持多选,上限50。 API商品不支持上架后的规格新增计费方式;按次套餐包上架后,不支持修改套餐包名称及配额,仅支持修改价格,请合理设置套餐包。 API商品规格无试用规格,如发布0元套餐包规格,不可设置为“同一用户订购次数多次”,

    来自:帮助中心

    查看更多 →

  • 资产安装(API接口:installTaskScenes)

    资产安装(API接口:installTaskScenes) 功能介绍 安装资料文件 相关接口 接口名称 调用说明 获取Token 调用该接口获取到Token,再调用其他接口时,需要在请求消息头中添加“Authorization”,其值即为Token。 URL 请求方式 HTTPS地址

    来自:帮助中心

    查看更多 →

  • 历史API接口(待下线)

    历史API接口(待下线) 下载构建日志(待下线) 获取构建记录的有向无环图(待下线) 获取构建记录信息(待下线) 停止构建任务(待下线)

    来自:帮助中心

    查看更多 →

  • HBase Phoenix API接口介绍

    HBase Phoenix API接口介绍 版本关系 若使用Phoenix,需下载与当前使用 MRS 集群相对应的Phoenix版本,具体请参见http://phoenix.apache.org。其对应关系如表1所示: 表1 MRS与Phoenix版本对应关系一览表 MRS版本 Phoenix版本

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    conf) Hadoop库中最终面向用户提供的接口是FileSystem,该类是个抽象,只能通过该类的get方法得到具体。get方法存在几个重载版本,常用的是这个。 public FSDataOutputStream create(Path f) 通过该接口可在HDFS上创建文件,其中f为文件的完整路径。

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    SparkConf:Spark应用配置,如设置应用名称,执行模式,executor内存等。 JavaRDD:用于在java应用中定义JavaRDD的,功能类似于scala中的RDD(Resilient Distributed Dataset)。 JavaPairRDD:表示ke

    来自:帮助中心

    查看更多 →

  • Spark Scala API接口介绍

    ,创建RDD等。 SparkConf:Spark应用配置,如设置应用名称,执行模式,executor内存等。 RDD(Resilient Distributed Dataset):用于在Spark应用程序中定义RDD的,该类提供数据集的操作方法,如map,filter。 Pa

    来自:帮助中心

    查看更多 →

  • OpenTSDB HTTP API接口介绍

    的RESTful接口,而RESTful接口本身具有语言无关性的特点,凡是支持HTTP请求的语言都可以对接OpenTSDB。 使用Java API操作OpenTSDB OpenTSDB提供了基于HTTP或HTTPS的应用程序接口,可以使用Java API调用相关接口操作其数据,详情请参考开发程序章节。

    来自:帮助中心

    查看更多 →

  • HBase Java API接口介绍

    HBase常用接口介绍 HBase常用的Java有以下几个: 接口Admin,HBase客户端应用的核心,主要封装了HBase管理操作的API,例如建表,删表等操作,部分常见接口参见表表1。 接口Table,HBase读写操作,主要封装了HBase表的读写操作的API,部分常见接口参见表表2。

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    conf) Hadoop库中最终面向用户提供的接口为FileSystem,该类为抽象,只能通过该类的get方法得到具体。get方法存在多个重载版本,常用的为该方法。 public FSDataOutputStream create(Path f) 通过该接口可在HDFS上创建文件,其中“f”为文件的完整路径。

    来自:帮助中心

    查看更多 →

  • HDFS C API接口介绍

    HDFS C API接口介绍 功能简介 C语言应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请直接参考官网上的描述以了解其使用方法:http://hadoop.apache.org/docs/r3.1.1/hadoop-proj

    来自:帮助中心

    查看更多 →

  • Spark Python API接口介绍

    pyspark.SparkConf:Spark应用配置。如设置应用名称,执行模式,executor内存等。 pyspark.RDD(Resilient Distributed Dataset):用于在Spark应用程序中定义RDD的,该类提供数据集的操作方法,如map,filter。

    来自:帮助中心

    查看更多 →

  • Flink Java API接口介绍

    riodicWatermarks和AssignerWithPunctuatedWatermarks。 窗口生成API如表11所示。 表11 窗口生成的相关接口 API 说明 public <W extends Window> WindowedStream<T, KEY, W>

    来自:帮助中心

    查看更多 →

  • Flink Java API接口介绍

    riodicWatermarks和AssignerWithPunctuatedWatermarks。 窗口生成API如表11所示。 表11 窗口生成的相关接口 API 说明 public <W extends Window> WindowedStream<T, KEY, W>

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    conf) Hadoop库中最终面向用户提供的接口是FileSystem,该类是个抽象,只能通过该类的get方法得到具体。get方法存在几个重载版本,常用的是这个。 public FSDataOutputStream create(Path f) 通过该接口可在HDFS上创建文件,其中f为文件的完整路径。

    来自:帮助中心

    查看更多 →

  • Kafka Java API接口介绍

    deserializer 消息Key值反序列化。 反序列化消息Key值。 value.deserializer 消息反序列化。 反序列化所接收的消息。 表4 Consumer重要接口函数 返回值类型 接口函数 描述 void close() 关闭Consumer接口方法。 void subscribe(java

    来自:帮助中心

    查看更多 →

  • 常用Oozie API接口介绍

    常用Oozie API接口介绍 Oozie Shell接口介绍 Oozie Java接口介绍 Oozie REST接口介绍 父主题: Oozie应用开发常见问题

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    SparkConf:Spark应用配置,如设置应用名称,执行模式,executor内存等。 JavaRDD:用于在java应用中定义JavaRDD的,功能类似于scala中的RDD(Resilient Distributed Dataset)。 JavaPairRDD:表示ke

    来自:帮助中心

    查看更多 →

  • Spark scala API接口介绍

    ,创建RDD等。 SparkConf:Spark应用配置,如设置应用名称,执行模式,executor内存等。 RDD(Resilient Distributed Dataset):用于在Spark应用程序中定义RDD的,该类提供数据集的操作方法,如map,filter。 Pa

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了