华为云开发者中心为开发者提供所有云服务的API及API手册、各产品的SDK、可服务的节点区域和各服务的终端节点EndPoint和在使用华为云产品时需要用到的CLI工具、业务工具等的下载及使用说明。

 

    api接口数据提供 更多内容
  • HDFS C API接口介绍

    HDFS C API接口介绍 功能简介 C语言应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请直接参考官网上的描述以了解其使用方法: http://hadoop.apache.org/docs/r3.1.1/hadoop-pro

    来自:帮助中心

    查看更多 →

  • HBase Java API接口介绍

    HBase Java API接口介绍 HBase采用的接口与Apache HBase保持一致,请参见http://hbase.apache.org/apidocs/index.html。 新增或修改的接口 HBase 0.98.3建议使用org.apache.hadoop.hbase

    来自:帮助中心

    查看更多 →

  • HDFS C API接口介绍

    HDFS C API接口介绍 功能简介 C语言应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请直接参考官网上的描述以了解其使用方法:http://hadoop.apache.org/docs/r2.7.2/hadoop-proj

    来自:帮助中心

    查看更多 →

  • YARN Java API接口介绍

    YARN Java API接口介绍 关于YARN的详细API可以直接参考官方网站上的描述: http://hadoop.apache.org/docs/r3.1.1/api/index.html 常用接口 YARN常用的Java类有如下几个。 ApplicationClientProtocol

    来自:帮助中心

    查看更多 →

  • Flink Scala API接口介绍

    Flink Scala API接口介绍 由于Flink开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Flink常用接口 Flink主要使用到如下这几个类: StreamExecutionEnvironment:是Flink流处理的基础,提供了程序的执行环境。

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    Java API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: JavaSparkContext:是Spark的对外接口,负责向调用该类的Java应用提供Spa

    来自:帮助中心

    查看更多 →

  • 资质提交支持API接口吗?

    资质提交支持API接口吗? 消息&短信服务申请资质暂未提供接口,请在短信控制台提交申请,具体操作请参见短信资质管理。 父主题: 资质相关

    来自:帮助中心

    查看更多 →

  • Flink Java API接口介绍

    Stream的各种流类型转换 流数据输入 表1 流数据输入的相关接口 API 说明 public final <OUT> DataStreamSource<OUT> fromElements(OUT... data) 获取用户定义的多个元素的数据,作为输入流数据。 type为元素的数据类型。 data为多个元素的具体数据。

    来自:帮助中心

    查看更多 →

  • Flink Scala API接口介绍

    Flink Scala API接口介绍 由于Flink开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Flink常用接口 Flink主要使用到如下这几个类: StreamExecutionEnvironment:是Flink流处理的基础,提供了程序的执行环境。

    来自:帮助中心

    查看更多 →

  • HBase Java API接口介绍

    HBase常用接口介绍 HBase常用的Java类有以下几个: 接口类Admin,HBase客户端应用的核心类,主要封装了HBase管理类操作的API,例如建表,删表等操作,部分常见接口参见表表1。 接口类Table,HBase读写操作类,主要封装了HBase表的读写操作的API,部分常见接口参见表表2。

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    类。常用接口参见表1。 FileStatus:记录文件和目录的状态信息。常用接口参见表2。 DFSColocationAdmin:管理colocation组信息的接口。常用接口参见表3。 DFSColocationClient:操作colocation文件的接口。常用接口参见表4。

    来自:帮助中心

    查看更多 →

  • Kafka Java API接口介绍

    Kafka Java API接口介绍 Kafka相关接口同开源社区保持一致,详情请参见https://kafka.apache.org/24/documentation.html。 Producer重要接口 表1 Producer重要参数 参数 描述 备注 bootstrap.servers

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    Java API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: JavaSparkContext:是Spark的对外接口,负责向调用该类的Java应用提供Spa

    来自:帮助中心

    查看更多 →

  • Spark Python API接口介绍

    Spark Python API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: pyspark.SparkContext:是Spark的对外接口。负责向调用该类的p

    来自:帮助中心

    查看更多 →

  • 数据架构API

    数据架构API 概览 信息架构接口 数据标准接口 数据接口 码表管理接口 流程架构接口 数据标准模板接口 审批管理接口 主题管理接口 主题层级接口 目录管理 原子指标接口 衍生指标接口 复合指标接口 维度接口 限定接口 维度表接口 事实表接口 汇总表接口 业务指标接口 版本信息接口

    来自:帮助中心

    查看更多 →

  • 发布数据API

    发布数据API数据后端创建后,您需要发布数据后端,生成数据API并发布到环境上,才可供其他用户调用。 前提条件 每个API都要归属到某个API分组下,在发布函数API前您需要有可用的API分组,否则请提前创建API分组。 如果需要使用自定义认证方式进行API的安全认证,请提前创建前端自定义认证。

    来自:帮助中心

    查看更多 →

  • 数据目录API

    数据目录API 业务资产接口 指标资产接口 统计资产接口 资产管理接口 资产分类接口 资产分级接口 资产信息 血缘信息 元数据采集任务接口 数据地图接口 标签接口

    来自:帮助中心

    查看更多 →

  • 创建数据API

    创建数据API 概述 ROMA Connect支持把数据源定义为后端服务,实现从数据源中读写数据,并以API的形式对外开放。 前提条件 ROMA Connect已接入数据源,具体请参考接入数据源。 如果后端服务需要使用签名密钥对请求发送方进行认证,请提前创建签名密钥。 部署并发布

    来自:帮助中心

    查看更多 →

  • 开放数据API

    开放数据API 接入数据源 创建数据后端 发布数据API 绑定 域名 配置调用授权(可选) 父主题: 服务集成指导

    来自:帮助中心

    查看更多 →

  • 资产安装(API接口:installTaskScenes)

    资产安装(API接口:installTaskScenes) 功能介绍 安装资料文件 相关接口 接口名称 调用说明 获取Token 调用该接口获取到Token,再调用其他接口时,需要在请求消息头中添加“Authorization”,其值即为Token。 URL 请求方式 HTTPS地址

    来自:帮助中心

    查看更多 →

  • 历史API接口(待下线)

    历史API接口(待下线) 下载构建日志(待下线) 获取构建记录的有向无环图(待下线) 获取构建记录信息(待下线) 停止构建任务(待下线)

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了