华为云开发者中心为开发者提供所有云服务的API及API手册、各产品的SDK、可服务的节点区域和各服务的终端节点EndPoint和在使用华为云产品时需要用到的CLI工具、业务工具等的下载及使用说明。

 

    api数据接口方案 更多内容
  • 数据访问接口

    数据访问接口 录音下载和播放URL接口 生成话单和录音索引 下载话单和录音索引 下载录音文件 下载录音文件(扩展) 生成座席操作详单索引 下载座席操作详单索引 请求回放录音文件 回放录音文件 下载智能IVR录音文件 下载IVR留言 第三方下载录音文件 第三方上传文件 第三方生成文件

    来自:帮助中心

    查看更多 →

  • 数据密级接口

    数据密级接口 获取数据密级 创建数据密级 根据指定的id查询数据密级 删除指定的id的数据密级 根据指定的id修改数据密级 批量删除数据密级 父主题: 数据安全API

    来自:帮助中心

    查看更多 →

  • 数据使能方案实施

    发布。通过数据服务模块,可以将数据仓库集市层中的业务数据转化为易于访问和使用的API。这样,数据应用可以直接从API中获取所需的数据,无需直接访问底层数据表。这种方式不仅提供了更高的数据安全性,还能够简化数据应用的开发和维护过程。 通过将数据转化为API,可以实现数据的实时更新和

    来自:帮助中心

    查看更多 →

  • 数据血缘方案简介

    数据血缘方案简介 什么是数据血缘 大数据时代,数据爆发性增长,海量的、各种类型的数据在快速产生。这些庞大复杂的数据信息,通过联姻融合、转换变换、流转流通,又生成新的数据,汇聚成数据的海洋。 数据的产生、加工融合、流转流通,到最终消亡,数据之间自然会形成一种关系。我们借鉴人类社会中

    来自:帮助中心

    查看更多 →

  • 数据迁移方案介绍

    数据迁移方案介绍 准备工作 元数据导出 数据复制 数据恢复 父主题: 数据迁移

    来自:帮助中心

    查看更多 →

  • 数据恢复方案

    数据恢复方案数据库RDS提供了多种方式恢复实例的数据,用以满足不同的使用场景,如数据故障或损坏,实例被误删除。 恢复误删除的实例 回收站:退订的包年包月实例和删除的按需实例,支持加入回收站管理。通过数据库回收站中重建实例功能,可以恢复1~7天内删除的实例,详见重建实例。 已删

    来自:帮助中心

    查看更多 →

  • 数据质量API

    数据质量API 目录接口 规则模板接口 质量作业接口 对账作业接口 运维管理接口 质量报告接口 导入导出接口

    来自:帮助中心

    查看更多 →

  • 使用API接口创建流

    使用API接口创建流 前提条件 获取API接口 创建连接器 创建流 运行流 父主题: 进阶能力

    来自:帮助中心

    查看更多 →

  • 模型API接入接口规范

    模型API接入接口规范 当前模型网关支持文本对话(Chat)、文本向量化(Embeddings)、文本排序(Rerank)三种类型的API接入。模型API接入之前,请确保符合相对应的接口规范,其中Chat接口和Embeddings接口需要符合OpenAI接口规范,Rerank接口需要符合AI引擎标准协议。

    来自:帮助中心

    查看更多 →

  • Alluxio API接口介绍

    Alluxio API接口介绍 Java API Alluxio接口遵循标准的Alluxio Parent API标准,详情请见https://docs.alluxio.io/os/javadoc/2.0/index.html。 HTTP REST API Master REST

    来自:帮助中心

    查看更多 →

  • Kafka Java API接口介绍

    Kafka Java API接口介绍 Kafka相关接口同开源社区保持一致。 Kafka Java API接口介绍可直接参考开源社区。 详情请参见http://kafka.apache.org/documentation.html#api。 父主题: Kafka接口介绍

    来自:帮助中心

    查看更多 →

  • Spark Scala API接口介绍

    Spark Scala API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: SparkContext:是Spark的对外接口,负责向调用该类的scala应

    来自:帮助中心

    查看更多 →

  • HBase Java API接口介绍

    HBase常用接口介绍 HBase常用的Java类有以下几个: 接口类Admin,HBase客户端应用的核心类,主要封装了HBase管理类操作的API,例如建表,删表等操作,部分常见接口参见表表1。 接口类Table,HBase读写操作类,主要封装了HBase表的读写操作的API,部分常见接口参见表表2。

    来自:帮助中心

    查看更多 →

  • HBase JDBC API接口介绍

    HBase JDBC API接口介绍 Phoenix实现了大部分的java.sql接口,SQL语法紧跟ANSI SQL标准。 其支持处理函数可参见: http://phoenix.apache.org/language/functions.html 其支持语法可参见: http://phoenix

    来自:帮助中心

    查看更多 →

  • Spark Python API接口介绍

    Spark Python API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: pyspark.SparkContext:是Spark的对外接口。负责向调用该类的p

    来自:帮助中心

    查看更多 →

  • HDFS C API接口介绍

    HDFS C API接口介绍 功能简介 C语言应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请直接参考官网上的描述以了解其使用方法: http://hadoop.apache.org/docs/r3.1.1/hadoop-pro

    来自:帮助中心

    查看更多 →

  • HBaseJDBC API接口介绍

    HBase JDBC API接口介绍 Phoenix实现了大部分的java.sql接口,SQL语法紧跟ANSI SQL标准。 其支持处理函数可参见: http://phoenix.apache.org/language/functions.html 其支持语法可参见: http://phoenix

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    类。常用接口参见表1。 FileStatus:记录文件和目录的状态信息。常用接口参见表2。 DFSColocationAdmin:管理colocation组信息的接口。常用接口参见表3。 DFSColocationClient:操作colocation文件的接口。常用接口参见表4。

    来自:帮助中心

    查看更多 →

  • Flink Scala API接口介绍

    获取用户定义的多个元素的数据,作为输入流数据。 data是多个元素的具体数据。 def fromCollection[T: TypeInformation](data: Seq[T]): DataStream[T] 获取用户定义的集合数据,作为输入流数据。 data可以是集合数据或者可迭代的数据体。

    来自:帮助中心

    查看更多 →

  • HBase JDBC API接口介绍

    HBase JDBC API接口介绍 Phoenix实现了大部分的java.sql接口,SQL语法紧跟ANSI SQL标准。 其支持处理函数可参见: http://phoenix.apache.org/language/functions.html 其支持语法可参见: http://phoenix

    来自:帮助中心

    查看更多 →

  • 常用OozieAPI接口介绍

    常用Oozie API接口介绍 Oozie Shell接口介绍 Oozie Java接口介绍 Oozie REST接口介绍 父主题: Oozie应用开发常见问题

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了