文档数据库服务 DDS

 

文档数据库DDS兼容MongoDB协议,在华为云高性能、高可用、高安全、可弹性伸缩的基础上,提供了一键部署,弹性扩容,容灾,备份,恢复,监控等服务能力。目前支持分片集群(Sharding)、副本集(ReplicaSet)和单节点(Single)三种部署架构

 

 

    api生成接口文档 更多内容
  • 文档写作规范

    Huawei LiteOS(以下简称LiteOS)欢迎开发者参与到开源社区的贡献中来,本文主要介绍参与LiteOS文档贡献的写作规范,如果贡献者提交文档的修改或提交新的文档,请参照此规范。如需提交新的文档,在LiteOS代码仓doc目录下创建新的.md文件,命名需遵循xxx_xxx.md格式,根据文档的内容来声明。比如介绍写作规范的文档,

    来自:帮助中心

    查看更多 →

  • 查看帮助文档

    查看帮助文档 开天企业工作台 管理后台,单击界面右上角管理员旁边的,在下拉框中选择“产品介绍”可直接跳转到帮助中心页面,帮助您了解开天 企业工作台 ,有助于您快速掌握工作台功能,帮助企业打造个性化办公体验,提升办公及运营效率。 在开天企业工作台管理后台,单击界面右上角管理员旁边的,在

    来自:帮助中心

    查看更多 →

  • 文档修订历史

    文档修订历史 文档版本 发布日期 修改说明 01 2024 年 11 月 首次发布 父主题: 基于轻量化渲染引擎构建工业渲染应用

    来自:帮助中心

    查看更多 →

  • 密钥配置文档

    密钥配置文档 获取密钥信息 登录华为云后台,单击右上角“账号中心 > 我的凭证 ”,进入“我的凭证”界面。 在左侧导航栏进入“访问密钥”界面,单击“新增访问密钥”生成新的密钥并下载保存。 配置密钥 引导式配置 可以通过执行config add直接进行密钥的添加: $ s config

    来自:帮助中心

    查看更多 →

  • 证明文档

    证明文档 证明文档用于证明QingTian Enclave实例的可信度量结果。证明文档由QingTianHypervisor生成文档内容包括PCR列表、QingTianPKI证书链、密码算法声明以及Enclave应用自定义数据。证明文档华为云QingTian Attestation

    来自:帮助中心

    查看更多 →

  • 基于已发布的模型路径生成API服务

    基于已发布的模型路径生成API服务 基于已发布的模型路径探索可以配置聚合服务,通过该方式,您可快速生成对应的API,其状态处在正在工作中。请注意,通过此方式生成API为非纯脚本服务,且脚本类型为JavaScript。 前提条件 已获取开发人员及以上权限用户的账号和密码。 操作步骤

    来自:帮助中心

    查看更多 →

  • 使用华为云Astro轻应用文件模板生成合同文档

    设置入参和出参 添加生成文档节点。 在“基本”图元中,拖拽“生成文档”图元到开始图元后。 图22 拖拽生成文档图元到画布中 选中生成文档图元,单击,设置生成文档。 图23 设置生成文档图元 表11 生成文档图元设置说明 参数 说明 示例 请选择模板场景 选择生成文档图元关联的模板场景,即2中创建的。

    来自:帮助中心

    查看更多 →

  • HBase Java API接口介绍

    HBase Java API接口介绍 HBase采用的接口与Apache HBase保持一致,请参见http://hbase.apache.org/apidocs/index.html。 新增或修改的接口 HBase 0.98.3建议使用org.apache.hadoop.hbase

    来自:帮助中心

    查看更多 →

  • HDFS C API接口介绍

    HDFS C API接口介绍 功能简介 C语言应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请直接参考官网上的描述以了解其使用方法:http://hadoop.apache.org/docs/r2.7.2/hadoop-proj

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    Spark Java API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: JavaSparkContext:是Spark的对外接口,负责向调用该类的Jav

    来自:帮助中心

    查看更多 →

  • YARN Java API接口介绍

    YARN Java API接口介绍 关于YARN的详细API可以直接参考官方网站上的描述: http://hadoop.apache.org/docs/r3.1.1/api/index.html 常用接口 YARN常用的Java类有如下几个。 ApplicationClientProtocol

    来自:帮助中心

    查看更多 →

  • Flink Scala API接口介绍

    Flink Scala API接口介绍 由于Flink开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Flink常用接口 Flink主要使用到如下这几个类: StreamExecutionEnvironment:是Flink流处理的基础,提供了程序的执行环境。

    来自:帮助中心

    查看更多 →

  • Flink Scala API接口介绍

    Flink Scala API接口介绍 由于Flink开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Flink常用接口 Flink主要使用到如下这几个类: StreamExecutionEnvironment:是Flink流处理的基础,提供了程序的执行环境。

    来自:帮助中心

    查看更多 →

  • HBase Java API接口介绍

    HBase常用接口介绍 HBase常用的Java类有以下几个: 接口类Admin,HBase客户端应用的核心类,主要封装了HBase管理类操作的API,例如建表,删表等操作,部分常见接口参见表表1。 接口类Table,HBase读写操作类,主要封装了HBase表的读写操作的API,部分常见接口参见表表2。

    来自:帮助中心

    查看更多 →

  • HDFS C API接口介绍

    HDFS C API接口介绍 功能简介 C语言应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请直接参考官网上的描述以了解其使用方法: http://hadoop.apache.org/docs/r3.1.1/hadoop-pro

    来自:帮助中心

    查看更多 →

  • Flink Scala API接口介绍

    Flink Scala API接口介绍 由于Flink开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Flink常用接口 Flink主要使用到如下这几个类: StreamExecutionEnvironment:是Flink流处理的基础,提供了程序的执行环境。

    来自:帮助中心

    查看更多 →

  • HBase Java API接口介绍

    HBase常用接口介绍 HBase常用的Java类有以下几个: 接口类Admin,HBase客户端应用的核心类,主要封装了HBase管理类操作的API,例如建表,删表等操作,部分常见接口参见表表1。 接口类Table,HBase读写操作类,主要封装了HBase表的读写操作的API,部分常见接口参见表表2。

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    类。常用接口参见表1。 FileStatus:记录文件和目录的状态信息。常用接口参见表2。 DFSColocationAdmin:管理colocation组信息的接口。常用接口参见表3。 DFSColocationClient:操作colocation文件的接口。常用接口参见表4。

    来自:帮助中心

    查看更多 →

  • Flink Java API接口介绍

    Flink Java API接口介绍 由于Flink开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Flink常用接口 Flink主要使用到如下这几个类: StreamExecutionEnvironment:是Flink流处理的基础,提供了程序的执行环境。

    来自:帮助中心

    查看更多 →

  • Kafka Java API接口介绍

    Kafka Java API接口介绍 Kafka相关接口同开源社区保持一致,详情请参见https://kafka.apache.org/24/documentation.html。 Producer重要接口 表1 Producer重要参数 参数 描述 备注 bootstrap.servers

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    Spark Java API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: JavaSparkContext:是Spark的对外接口,负责向调用该类的Jav

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了