对象存储服务 OBS     

对象存储服务(Object Storage Service)是一款稳定、安全、高效、易用的云存储服务,具备标准Restful API接口,可存储任意数量和形式的非结构化数据。

 
 

    云存储接口使用 更多内容
  • 如何使用云存储?

    如何使用存储? 如果您使用控制台界面创建,请参见存储概述。 您还可以使用kubectl创建存储,具体请参见使用PersistentVolumeClaim申请持久化存储。 父主题: 存储管理类

    来自:帮助中心

    查看更多 →

  • 云存储

    存储 获取存储列表 授权存储 解绑存储 父主题: CAE API

    来自:帮助中心

    查看更多 →

  • 配置云存储

    配置存储 存储说明 配置并行文件系统 配置存储桶 配置通用型文件系统 编辑存储挂载 删除存储挂载 父主题: 组件配置

    来自:帮助中心

    查看更多 →

  • 云存储说明

    存储说明 CAE支持对并行文件系统、存储桶和通用文件系统三种类型的存储,每种存储的主要特点及应用场景参考表1。 表1 存储对比 对比维度 对象存储OBS-并行文件系统 对象存储OBS-存储桶 通用文件系统 概念 并行文件系统是OBS提供的一种经过优化的高性能文件系统,提供

    来自:帮助中心

    查看更多 →

  • 授权云存储

    key,当前access key应该包含访问授权存储的权限。 secret 否 String 用户secret key,当前secret key应该包含访问授权存储的权限。 响应参数 无 请求示例 授权存储存储类型为“obs”,存储桶名称为“test-bucket”。 POST

    来自:帮助中心

    查看更多 →

  • 云存储授权

    单击“授权”,完成通用文件系统授权。 存储解绑 若已授权存储对象存储已绑定组件,解除绑定时,请先在“组件配置 > 存储配置”中删除相应组件中挂载,具体操作请参考删除存储挂载。 登录CAE控制台。 在左侧导航栏中选择“系统设置”。 单击“存储授权”模块中的“编辑”,进入“已授权存储”页面。 选择

    来自:帮助中心

    查看更多 →

  • BulkPut接口使用

    BulkPut接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将构建的RDD写入HBase中。 数据规划 在客户端执行hbase shell,进入HBase命令行,使用下面的命令创建样例代码中要使用的HBase表: create

    来自:帮助中心

    查看更多 →

  • BulkLoad接口使用

    BulkLoad接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要插入的数据的rowKey构造成rdd,然后通过HBaseContext的bulkLoad接口将rdd写入HFile中。将生成的HFile文件导入HBase表的

    来自:帮助中心

    查看更多 →

  • foreachPartition接口使用

    foreachPartition接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去操作HBase,将要插入的数据的rowKey构造成rdd,然后通过HBaseContext的mapPartition接口将rdd并发写入HBase表中。 数据规划

    来自:帮助中心

    查看更多 →

  • BulkDelete接口使用

    BulkDelete接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要删除的数据的rowKey构造成rdd,然后通过HBaseContext的bulkDelete接口对HBase表上这些rowKey对应的数据进行删除。 数据规划

    来自:帮助中心

    查看更多 →

  • foreachPartition接口使用

    foreachPartition接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去操作HBase,将要插入的数据的rowKey构造成rdd,然后通过HBaseContext的mapPartition接口将rdd并发写入HBase表中。 数据规划

    来自:帮助中心

    查看更多 →

  • BulkPut接口使用

    BulkPut接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将构建的RDD写入HBase中。 数据规划 在客户端执行hbase shell,进入HBase命令行,使用下面的命令创建样例代码中要使用的Hase表: create

    来自:帮助中心

    查看更多 →

  • BulkDelete接口使用

    BulkDelete接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要删除的数据的rowKey构造成rdd,然后通过HBaseContext的bulkDelete接口对HBase表上这些rowKey对应的数据进行删除。 数据规划

    来自:帮助中心

    查看更多 →

  • 通过动态存储卷使用文件存储

    已有底层存储的场景下,根据是否已经创建PV可选择“新建存储卷”或“已有存储卷”,静态创建PVC,具体操作请参见通过静态存储使用已有文件存储。 本文中选择“动态创建存储实例”。 存储类 文件存储对应的默认存储类为csi-sfs或csi-nas。 您可以自建存储类并配置回收策略和绑定模式,

    来自:帮助中心

    查看更多 →

  • BulkLoad接口使用

    BulkLoad接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要插入的数据的rowKey构造成rdd,然后通过HBaseContext的bulkLoad接口将rdd写入HFile中。将生成的HFile文件导入HBase表的

    来自:帮助中心

    查看更多 →

  • foreachPartition接口使用

    foreachPartition接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去操作HBase,将要插入的数据的rowKey构造成rdd,然后通过HBaseContext的mapPartition接口将rdd并发写入HBase表中。 数据规划

    来自:帮助中心

    查看更多 →

  • BulkPut接口使用

    BulkPut接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将构建的RDD写入HBase中。 数据规划 在客户端执行hbase shell,进入HBase命令行,使用下面的命令创建样例代码中要使用的HBase表: create

    来自:帮助中心

    查看更多 →

  • BulkLoad接口使用

    BulkLoad接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要插入的数据的rowKey构造成rdd,然后通过HBaseContext的bulkLoad接口将rdd写入HFile中。将生成的HFile导入HBase表的操作

    来自:帮助中心

    查看更多 →

  • foreachPartition接口使用

    foreachPartition接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去操作HBase,将要插入的数据的rowKey构造成rdd,然后通过HBaseContext的mapPartition接口将rdd并发写入HBase表中。 数据规划

    来自:帮助中心

    查看更多 →

  • BulkDelete接口使用

    BulkDelete接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将要删除的数据的rowKey构造成rdd,然后通过HBaseContext的bulkDelete接口对HBase表上这些rowKey对应的数据进行删除。 数据规划

    来自:帮助中心

    查看更多 →

  • BulkPut接口使用

    BulkPut接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去使用HBase,将构建的RDD写入HBase中。 数据规划 在客户端执行hbase shell,进入HBase命令行,使用下面的命令创建样例代码中要使用的Hase表: create

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了