文档数据库服务 DDS

 

文档数据库DDS兼容MongoDB协议,在华为云高性能、高可用、高安全、可弹性伸缩的基础上,提供了一键部署,弹性扩容,容灾,备份,恢复,监控等服务能力。目前支持分片集群(Sharding)、副本集(ReplicaSet)和单节点(Single)三种部署架构

 

 

    api接口文档怎么使用 更多内容
  • 查询文档生成信息(API名称:getTaskTemplateList)

    查询文档生成信息(API名称:getTaskTemplateList) 功能介绍 查询文档生成信息 相关接口 接口名称 调用说明 获取Token 调用该接口获取到Token,再调用其他接口时,需要在请求消息头中添加“Authorization”,其值即为Token。 URL 请求方式

    来自:帮助中心

    查看更多 →

  • API使用

    API使用 API是否支持集成到第三方产品中 API是否存在对调用IP数量的限制

    来自:帮助中心

    查看更多 →

  • HTTP API接口

    HTTP API接口 本章介绍HTTP API接口使用方法。 函数接口 消息接口

    来自:帮助中心

    查看更多 →

  • 获取API接口

    获取API接口 操作步骤 进入华为云商店,在搜索框搜索“全球IP归属地查询-IP地址查询”,选择如图1所示接口。 图1 球IP归属地查询-IP地址查询 选择规格和套餐包,如图1所示。 单击“立即购买”。 按照提示完成API接口的订阅。创建连接器时需要用到的信息如图2、图3所示。 图2

    来自:帮助中心

    查看更多 →

  • 如何调用API接口

    如何调用API接口 详情可参考《OptVerse_API参考》如何调用API。 父主题: 调用服务API

    来自:帮助中心

    查看更多 →

  • 如何开放API接口

    源。 在接口列表中,单击接口后的,可查看定义的API信息。 单击“测试一下”,可模拟API接口调用。 图5 API接口请求参数信息 图6 API接口返回参数信息 API接口的请求参数和返回消息体,为绑定的资源(如脚本,服务编排等)所配置的入参和出参。 父主题: API接口

    来自:帮助中心

    查看更多 →

  • 接口使用说明(OpenStack Nova API)

    接口使用说明(OpenStack Nova API) 网络相关服务API,请参考《虚拟私有云API参考》。 专属分布式存储相关API,请参考《专属分布式存储API参考》。 使用OpenStack原生接口时,您需要使用E CS 服务的终端节点(Endpoint),获取方式请参见地区和终端节点。

    来自:帮助中心

    查看更多 →

  • API使用

    API使用 API是否支持集成到第三方产品中 API是否存在对调用IP数量的限制 父主题: 圆桌常见问题

    来自:帮助中心

    查看更多 →

  • API使用

    API使用 调用直播API的Token是什么? 为什么调用API的返回信息提示接口不存在? 为什么调用的API返回“projectId in token is nil”? 为什么调用API时返回“The token must be updated”? 为什么调用API时提示“APIG

    来自:帮助中心

    查看更多 →

  • BulkLoad接口使用

    BulkLoad接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要插入的数据的rowKey构造成rdd,然后通过HBaseContext的bulkLoad接口将rdd写入HFile中。将生成的HFile文件导入HBase表的

    来自:帮助中心

    查看更多 →

  • foreachPartition接口使用

    foreachPartition接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去操作HBase,将要插入的数据的rowKey构造成rdd,然后通过HBaseContext的mapPartition接口将rdd并发写入HBase表中。 数据规划

    来自:帮助中心

    查看更多 →

  • BulkPut接口使用

    BulkPut接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将构建的RDD写入HBase中。 数据规划 在客户端执行hbase shell,进入HBase命令行,使用下面的命令创建样例代码中要使用的HBase表: create

    来自:帮助中心

    查看更多 →

  • BulkPut接口使用

    BulkPut接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将构建的RDD写入HBase中。 数据规划 在客户端执行hbase shell,进入HBase命令行,使用下面的命令创建样例代码中要使用的Hase表: create

    来自:帮助中心

    查看更多 →

  • BulkLoad接口使用

    BulkLoad接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要插入的数据的rowKey构造成rdd,然后通过HBaseContext的bulkLoad接口将rdd写入HFile中。将生成的HFile导入HBase表的操作

    来自:帮助中心

    查看更多 →

  • BulkDelete接口使用

    BulkDelete接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要删除的数据的rowKey构造成rdd,然后通过HBaseContext的bulkDelete接口对HBase表上这些rowKey对应的数据进行删除。 数据规划

    来自:帮助中心

    查看更多 →

  • BulkDelete接口使用

    BulkDelete接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要删除的数据的rowKey构造成rdd,然后通过HBaseContext的bulkDelete接口对HBase表上这些rowKey对应的数据进行删除。 数据规划

    来自:帮助中心

    查看更多 →

  • BulkLoad接口使用

    BulkLoad接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要插入的数据的rowKey构造成rdd,然后通过HBaseContext的bulkLoad接口将rdd写入HFile中。将生成的HFile导入HBase表的操作

    来自:帮助中心

    查看更多 →

  • foreachPartition接口使用

    foreachPartition接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去操作HBase,将要插入的数据的rowKey构造成rdd,然后通过HBaseContext的mapPartition接口将rdd并发写入HBase表中。 数据规划

    来自:帮助中心

    查看更多 →

  • BulkPut接口使用

    BulkPut接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将构建的RDD写入HBase中。 数据规划 在客户端执行hbase shell,进入HBase命令行,使用下面的命令创建样例代码中要使用的HBase表: create

    来自:帮助中心

    查看更多 →

  • BulkLoad接口使用

    BulkLoad接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要插入的数据的rowKey构造成rdd,然后通过HBaseContext的bulkLoad接口将rdd写入HFile中。将生成的HFile文件导入HBase表的

    来自:帮助中心

    查看更多 →

  • BulkDelete接口使用

    BulkDelete接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要删除的数据的rowKey构造成rdd,然后通过HBaseContext的bulkDelete接口对HBase表上这些rowKey对应的数据进行删除。 数据规划

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了