华为云开发者中心为开发者提供所有云服务的API及API手册、各产品的SDK、可服务的节点区域和各服务的终端节点EndPoint和在使用华为云产品时需要用到的CLI工具、业务工具等的下载及使用说明。

 

    api接口使用教程 更多内容
  • 接口使用方法

    接口使用方法 接口调用流程 Token认证 构造请求消息 发起请求 解析响应消息 示例

    来自:帮助中心

    查看更多 →

  • 接口使用方法

    接口使用方法 使用方法 接口调用流程 获取AK/SK认证 构造请求方法 发起请求 解析消息响应 状态码 签名示例工程代码 父主题: 云商店开放接口指南

    来自:帮助中心

    查看更多 →

  • 接口使用方法

    接口使用方法 使用方法 接口调用流程 获取AK/SK认证 构造请求方法 发起请求 解析消息响应 状态码 签名示例工程代码 父主题: 云商店开放接口描述

    来自:帮助中心

    查看更多 →

  • 接口使用方法

    接口使用方法 使用方法 接口调用流程 获取AK/SK认证 构造请求方法 发起请求 解析消息响应 状态码 签名示例工程代码 父主题: 云商店开放接口指南

    来自:帮助中心

    查看更多 →

  • BulkGet接口使用

    BulkGet接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要获取的数据的rowKey构造成rdd,然后通过HBaseContext的bulkGet接口获取对HBase表上这些rowKey对应的数据。 数据规划 基于Bul

    来自:帮助中心

    查看更多 →

  • BulkGet接口使用

    BulkGet接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要获取的数据的rowKey构造成rdd,然后通过HBaseContext的bulkGet接口获取对HBase表上这些rowKey对应的数据。 数据规划 基于Bul

    来自:帮助中心

    查看更多 →

  • BulkGet接口使用

    BulkGet接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要获取的数据的rowKey构造成rdd,然后通过HBaseContext的bulkGet接口获取对HBase表上这些rowKey对应的数据。 数据规划 基于Bul

    来自:帮助中心

    查看更多 →

  • 接口使用方法

    接口使用方法 数据集服务API符合RESTful API设计理论。REST从资源的角度观察整个网络,分布在各处的资源由URI(Uniform Resource Identifier)确定,客户端的应用通过URL(Unified Resource Locator)获取资源。URL的

    来自:帮助中心

    查看更多 →

  • 通用接口使用概述

    通用接口使用概述 token为login以后返回的登录信息,每次调用新的接口都需要使用登录后的token stringHashMap记录了访问接口的命令和接口名称的关联的键值对,后续有详细使用介绍。 private static String baseUrl = "https://192

    来自:帮助中心

    查看更多 →

  • 接口使用说明

    接口使用说明 网络相关服务API,请参考《虚拟私有云API参考》。 包周期 裸金属服务器 的创建和退订流程中涉及和运营类接口交互,详细信息请参见运营能力简介。 专属分布式存储相关API,请参考《专属分布式存储API参考》。 使用BMS提供的接口时,您需要使用BMS服务自身的终端节点(

    来自:帮助中心

    查看更多 →

  • Flink Scala API接口介绍

    Flink Scala API接口介绍 由于Flink开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Flink常用接口 Flink主要使用到如下这几个类: StreamExecutionEnvironment:是Flink流处理的基础,提供了程序的执行环境。

    来自:帮助中心

    查看更多 →

  • HBase Java API接口介绍

    HBase Java API接口介绍 接口使用建议 建议使用org.apache.hadoop.hbase.Cell作为KV数据对象,而不是org.apache.hadoop.hbase.KeyValue。 建议使用Connection connection = ConnectionFactory

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    Id的映射关系。当文件使用Colocation接口创建时,系统会将文件创建在LocatorId所对应的节点上。文件创建和写入要求使用Colocation相关接口。 文件写入完毕后,后续对该文件的相关操作不限制使用Colocation接口,也可以使用开源接口进行操作。 DFSCol

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    Spark Java API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: JavaSparkContext:是Spark的对外接口,负责向调用该类的Jav

    来自:帮助中心

    查看更多 →

  • Spark Python API接口介绍

    Spark Python API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: pyspark.SparkContext:是Spark的对外接口。负责向调用该类的p

    来自:帮助中心

    查看更多 →

  • Kafka Java API接口介绍

    Kafka Java API接口介绍 Kafka相关接口同开源社区保持一致,详情请参见https://kafka.apache.org/24/documentation.html。 Producer重要接口 表1 Producer重要参数 参数 描述 备注 bootstrap.servers

    来自:帮助中心

    查看更多 →

  • Flink Java API接口介绍

    Flink Java API接口介绍 由于Flink开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Flink常用接口 Flink主要使用到如下这几个类: StreamExecutionEnvironment:是Flink流处理的基础,提供了程序的执行环境。

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    Spark Java API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: JavaSparkContext:是Spark的对外接口,负责向调用该类的Jav

    来自:帮助中心

    查看更多 →

  • HBase Java API接口介绍

    HBase Java API接口介绍 HBase采用的接口与Apache HBase保持一致,请参见http://hbase.apache.org/apidocs/index.html。 新增或修改的接口 HBase 0.98.3建议使用org.apache.hadoop.hbase

    来自:帮助中心

    查看更多 →

  • HDFS C API接口介绍

    HDFS C API接口介绍 功能简介 C语言应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请直接参考官网上的描述以了解其使用方法:http://hadoop.apache.org/docs/r2.7.2/hadoop-proj

    来自:帮助中心

    查看更多 →

  • YARN Java API接口介绍

    YARN Java API接口介绍 关于YARN的详细API可以直接参考官方网站上的描述: http://hadoop.apache.org/docs/r3.1.1/api/index.html 常用接口 YARN常用的Java类有如下几个。 ApplicationClientProtocol

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了