华为云开发者中心为开发者提供所有云服务的API及API手册、各产品的SDK、可服务的节点区域和各服务的终端节点EndPoint和在使用华为云产品时需要用到的CLI工具、业务工具等的下载及使用说明。

 

    api接口授权使用 更多内容
  • foreachPartition接口使用

    foreachPartition接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去操作HBase,将要插入的数据的rowKey构造成rdd,然后通过HBaseContext的mapPartition接口将rdd并发写入HBase表中。 数据规划

    来自:帮助中心

    查看更多 →

  • BulkLoad接口使用

    BulkLoad接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要插入的数据的rowKey构造成rdd,然后通过HBaseContext的bulkLoad接口将rdd写入HFile中。将生成的HFile文件导入HBase表的

    来自:帮助中心

    查看更多 →

  • BulkPut接口使用

    BulkPut接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将构建的RDD写入HBase中。 数据规划 在客户端执行hbase shell,进入HBase命令行,使用下面的命令创建样例代码中要使用的HBase表: create

    来自:帮助中心

    查看更多 →

  • BulkLoad接口使用

    BulkLoad接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要插入的数据的rowKey构造成rdd,然后通过HBaseContext的bulkLoad接口将rdd写入HFile中。将生成的HFile文件导入HBase表的

    来自:帮助中心

    查看更多 →

  • foreachPartition接口使用

    foreachPartition接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去操作HBase,将要插入的数据的rowKey构造成rdd,然后通过HBaseContext的mapPartition接口将rdd并发写入HBase表中。 数据规划

    来自:帮助中心

    查看更多 →

  • BulkDelete接口使用

    BulkDelete接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要删除的数据的rowKey构造成rdd,然后通过HBaseContext的bulkDelete接口对HBase表上这些rowKey对应的数据进行删除。 数据规划

    来自:帮助中心

    查看更多 →

  • foreachPartition接口使用

    foreachPartition接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去操作HBase,将要插入的数据的rowKey构造成rdd,然后通过HBaseContext的mapPartition接口将rdd并发写入HBase表中。 数据规划

    来自:帮助中心

    查看更多 →

  • BulkPut接口使用

    BulkPut接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将构建的RDD写入HBase中。 数据规划 在客户端执行hbase shell,进入HBase命令行,使用下面的命令创建样例代码中要使用的Hase表: create

    来自:帮助中心

    查看更多 →

  • BulkDelete接口使用

    BulkDelete接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要删除的数据的rowKey构造成rdd,然后通过HBaseContext的bulkDelete接口对HBase表上这些rowKey对应的数据进行删除。 数据规划

    来自:帮助中心

    查看更多 →

  • BulkPut接口使用

    BulkPut接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将构建的RDD写入HBase中。 数据规划 在客户端执行hbase shell,进入HBase命令行,使用下面的命令创建样例代码中要使用的HBase表: create

    来自:帮助中心

    查看更多 →

  • BulkLoad接口使用

    BulkLoad接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要插入的数据的rowKey构造成rdd,然后通过HBaseContext的bulkLoad接口将rdd写入HFile中。将生成的HFile导入HBase表的操作

    来自:帮助中心

    查看更多 →

  • foreachPartition接口使用

    foreachPartition接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去操作HBase,将要插入的数据的rowKey构造成rdd,然后通过HBaseContext的mapPartition接口将rdd并发写入HBase表中。 数据规划

    来自:帮助中心

    查看更多 →

  • BulkDelete接口使用

    BulkDelete接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要删除的数据的rowKey构造成rdd,然后通过HBaseContext的bulkDelete接口对HBase表上这些rowKey对应的数据进行删除。 数据规划

    来自:帮助中心

    查看更多 →

  • BulkPut接口使用

    BulkPut接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将构建的RDD写入HBase中。 数据规划 在客户端执行hbase shell,进入HBase命令行,使用下面的命令创建样例代码中要使用的Hase表: create

    来自:帮助中心

    查看更多 →

  • BulkDelete接口使用

    BulkDelete接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要删除的数据的rowKey构造成rdd,然后通过HBaseContext的bulkDelete接口对HBase表上这些rowKey对应的数据进行删除。 数据规划

    来自:帮助中心

    查看更多 →

  • BulkLoad接口使用

    BulkLoad接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要插入的数据的rowKey构造成rdd,然后通过HBaseContext的bulkLoad接口将rdd写入HFile中。将生成的HFile导入HBase表的操作

    来自:帮助中心

    查看更多 →

  • 配置API调用授权(可选)

    配置API调用授权(可选) API调用授权概述 配置APIG的API认证凭据 配置APIG的API简易认证AppCode

    来自:帮助中心

    查看更多 →

  • 如何调用API接口

    如何调用API接口 详情可参考《OptVerse_API参考》如何调用API。 父主题: 调用服务API

    来自:帮助中心

    查看更多 →

  • 如何开放API接口

    源。 在接口列表中,单击接口后的,可查看定义的API信息。 单击“测试一下”,可模拟API接口调用。 图5 API接口请求参数信息 图6 API接口返回参数信息 API接口的请求参数和返回消息体,为绑定的资源(如脚本,服务编排等)所配置的入参和出参。 父主题: API接口

    来自:帮助中心

    查看更多 →

  • 任务相关API接口

    任务相关API接口 根据开始时间和结束时间查看构建任务的构建历史列表 查看构建任务的构建历史列表 KeyStore文件下载 查看任务运行状态 查看项目下用户的构建任务列表 执行构建任务 查询指定代码仓库最近一次成功的构建历史 获取构建历史详情信息接口 根据开始时间和结束时间查看构建任务的构建成功率

    来自:帮助中心

    查看更多 →

  • 数据集可视授权接口

    数据集可视授权接口 添加已发布数据集的可视权限 查询已授权数据集的可视范围 删除已发布数据集的可视权限 添加已发布目录的可视权限 删除已发布目录的可视权限 查询已授权目录的可视范围 设置秘密及以上密级的数据集可视范围为全部可视 父主题: 数据集

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了