华为云开发者中心为开发者提供所有云服务的API及API手册、各产品的SDK、可服务的节点区域和各服务的终端节点EndPoint和在使用华为云产品时需要用到的CLI工具、业务工具等的下载及使用说明。

 

    api接口原理 更多内容
  • 集成原理

    集成原理 轻量级接续条可以快速高效的集成到第三方系统,您可以通过图1了解主要集成原理。 图1 轻量级接续条集成原理 OpenEye:云客服的多媒体软终端产品,通过该客户端界面实现呼叫功能。您也可以通过其他可注册到云客服的工具进行呼叫,例如WebRTC、手机APP等。 软电话号码:

    来自:帮助中心

    查看更多 →

  • 原理介绍

    原理介绍 端云协同 独有编码 设备仿真

    来自:帮助中心

    查看更多 →

  • 如何开放API接口

    源。 在接口列表中,单击接口后的,可查看定义的API信息。 单击“测试一下”,可模拟API接口调用。 图5 API接口请求参数信息 图6 API接口返回参数信息 API接口的请求参数和返回消息体,为绑定的资源(如脚本,服务编排等)所配置的入参和出参。 父主题: API接口

    来自:帮助中心

    查看更多 →

  • 任务相关API接口

    任务相关API接口 根据开始时间和结束时间查看构建任务的构建历史列表 查看构建任务的构建历史列表 KeyStore文件下载 查看任务运行状态 查看项目下用户的构建任务列表 执行构建任务 查询指定代码仓库最近一次成功的构建历史 获取构建历史详情信息接口 根据开始时间和结束时间查看构建任务的构建成功率

    来自:帮助中心

    查看更多 →

  • 技术原理

    技术原理 父主题: CA代理服务介绍

    来自:帮助中心

    查看更多 →

  • 方案原理

    方案原理 本章节分别通过生产站点正常工作、生产站点故障以及生产站点和跨可用区容灾站点同时故障三个场景,介绍在不同的故障情况下,本方案如何接管用户的业务。 生产站点正常工作 当生产站点正常工作时,状态如图1所示。 通过SDRS,在区域A内将可用区1的生产站点 服务器 的数据、配置信息同

    来自:帮助中心

    查看更多 →

  • 技术原理

    技术原理 CA服务技术原理图请参见图1。 图1 CA服务的技术原理 用户在通过CA服务申请证书时,需要根据实际需求来配置CA信息、证书模板、白名单和CRL等信息。 申请证书方式: 手动申请:分为通过基本信息申请证书、通过上传 CS R文件申请证书两种方式。 自动申请:通过配置CMP协

    来自:帮助中心

    查看更多 →

  • 迁移原理

    迁移原理 CDM 迁移原理 用户使用CDM服务时,CDM管理系统在用户VPC中发放全托管的CDM实例。此实例仅提供控制台和Rest API访问权限,用户无法通过其他接口(如SSH)访问实例。这种方式保证了CDM用户间的隔离,避免数据泄漏,同时保证VPC内不同云服务间数据迁移时的传输

    来自:帮助中心

    查看更多 →

  • 原理介绍

    原理介绍 工业数字模型驱动引擎(Industrial Digital Model Engine,简称iDME)基于数据模型驱动,以正向设计即开发的模式构建云化SaaS多租的业务应用,基于全领域数据模型和数字化模型,构建企业级数字化与智能化数据应用。 图1 iDME工作原理 数据建模引擎是怎样工作的?

    来自:帮助中心

    查看更多 →

  • 备份原理

    除。 建议您定期对数据库进行备份,当数据库故障或数据损坏时,可以通过备份恢复数据库,从而保证数据可靠性。 备份原理 云数据库 GaussDB (for MySQL)基于华为最新一代DFV存储,采用计算与存储分离架构,计算层用于给外界提供服务,管理日志信息,存储层存储数据信息。存储层分为Common

    来自:帮助中心

    查看更多 →

  • HBase Java API接口介绍

    HBase Java API接口介绍 HBase采用的接口与Apache HBase保持一致,请参见http://hbase.apache.org/apidocs/index.html。 新增或修改的接口 HBase 0.98.3建议使用org.apache.hadoop.hbase

    来自:帮助中心

    查看更多 →

  • HDFS C API接口介绍

    HDFS C API接口介绍 功能简介 C语言应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请直接参考官网上的描述以了解其使用方法:http://hadoop.apache.org/docs/r2.7.2/hadoop-proj

    来自:帮助中心

    查看更多 →

  • HBase Java API接口介绍

    HBase常用接口介绍 HBase常用的Java类有以下几个: 接口类Admin,HBase客户端应用的核心类,主要封装了HBase管理类操作的API,例如建表,删表等操作,部分常见接口参见表表1。 接口类Table,HBase读写操作类,主要封装了HBase表的读写操作的API,部分常见接口参见表表2。

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    类。常用接口参见表1。 FileStatus:记录文件和目录的状态信息。常用接口参见表2。 DFSColocationAdmin:管理colocation组信息的接口。常用接口参见表3。 DFSColocationClient:操作colocation文件的接口。常用接口参见表4。

    来自:帮助中心

    查看更多 →

  • Kafka Java API接口介绍

    Kafka Java API接口介绍 Kafka相关接口同开源社区保持一致,详情请参见https://kafka.apache.org/24/documentation.html。 Producer重要接口 表1 Producer重要参数 参数 描述 备注 bootstrap.servers

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    Spark Java API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: JavaSparkContext:是Spark的对外接口,负责向调用该类的Jav

    来自:帮助中心

    查看更多 →

  • Spark Python API接口介绍

    Spark Python API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: pyspark.SparkContext:是Spark的对外接口。负责向调用该类的p

    来自:帮助中心

    查看更多 →

  • Flink Java API接口介绍

    Flink Java API接口介绍 由于Flink开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Flink常用接口 Flink主要使用到如下这几个类: StreamExecutionEnvironment:是Flink流处理的基础,提供了程序的执行环境。

    来自:帮助中心

    查看更多 →

  • Flink Scala API接口介绍

    Flink Scala API接口介绍 由于Flink开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Flink常用接口 Flink主要使用到如下这几个类: StreamExecutionEnvironment:是Flink流处理的基础,提供了程序的执行环境。

    来自:帮助中心

    查看更多 →

  • Flink Scala API接口介绍

    Flink Scala API接口介绍 由于Flink开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Flink常用接口 Flink主要使用到如下这几个类: StreamExecutionEnvironment:是Flink流处理的基础,提供了程序的执行环境。

    来自:帮助中心

    查看更多 →

  • YARN Java API接口介绍

    YARN Java API接口介绍 关于YARN的详细API可以直接参考官方网站上的描述: http://hadoop.apache.org/docs/r3.1.1/api/index.html 常用接口 YARN常用的Java类有如下几个。 ApplicationClientProtocol

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了