数据导入功能 更多内容
  • 数据并行导入导出

    数据并行导入导出 GaussDB 提供了并行导入导出功能,以快速、高效地完成大量数据导入导出。介绍GaussDB并行导入导出的相关参数。 raise_errors_if_no_files 参数说明:设置导入时是否区分“导入文件记录数为空”和“导入文件不存在”。该参数开启时,“导入

    来自:帮助中心

    查看更多 →

  • 导入数据至OpenSearch集群

    导入数据至OpenSearch集群 OpenSearch集群导入数据方式 使用自建Logstash导入数据到OpenSearch 使用开源OpenSearch API导入数据到OpenSearch 使用 CDM 导入数据到OpenSearch 增强OpenSearch集群数据导入性能

    来自:帮助中心

    查看更多 →

  • 使用Import工具导入数据

    使用Import工具导入数据 使用Import工具,可以导入HBase的SequenceFile数据文件到CloudTable的HBase中。Import工具是客户端工具安装包中自带的一个工具。 SequenceFile文件是指使用Export工具从HBase导出的数据文件。 准备一台

    来自:帮助中心

    查看更多 →

  • 使用DAS的导出和导入功能迁移FlexusRDS for PostgreSQL数据

    使用DAS的导出和导入功能迁移FlexusRDS for PostgreSQL数据 操作场景 当进行数据备份或迁移时,支持使用数据管理服务的数据导出功能,获取完整的数据信息,再将数据从本地或者从OBS桶导入目标数据表。 更多信息,请参见导入导出。 约束限制 导入单文件大小最大可达1GB。

    来自:帮助中心

    查看更多 →

  • 新建数据集和导入数据

    新建数据集和导入数据 用户根据数据的业务类别创建数据集,并导入数据。 基本功能介绍 系统支持本地上传数据、从公共空间中导入样例数据至模型训练服务。 操作步骤如下所示。 单击“项目总览”页面“数据集”下方的“创建”。 进入“数据集”页面,弹出“导入数据”对话框,如图1所示。 图1 导入数据

    来自:帮助中心

    查看更多 →

  • 使用DAS的导出和导入功能迁移RDS for SQL Server数据

    使用DAS的导出和导入功能迁移RDS for SQL Server数据 操作场景 当进行数据备份或迁移时,支持使用数据管理服务的数据导出功能,获取完整的数据信息,再将数据从本地或者从OBS桶导入目标数据表。 更多信息,请参见导入导出。 约束限制 只支持导入一个文件,该文件最大可达1GB。

    来自:帮助中心

    查看更多 →

  • Kafka实例支持批量导入Topic功能么?或者是自动生成Topic功能?

    Kafka实例支持批量导入Topic功能么?或者是自动生成Topic功能? 支持自动生成Topic功能,但不支持Topic批量导入功能,仅支持批量导出Topic功能。 通过以下任意一种方法,开启自动生成Topic功能: 创建实例时,开启Kafka自动创建Topic。 创建实例后,

    来自:帮助中心

    查看更多 →

  • 开启透明数据加密功能

    获取备份文件并通过备份文件恢复数据。 请根据需要开启该数据库的TDE加密功能。 开启TDE加密功能后,可提高数据安全性,但同时会影响访问加密数据库的读写性能。请谨慎选择开启TDE加密功能。 线下加密的数据库无法直接迁移上云数据库SQL Server实例,需要先关闭线下数据库级别的TDE加密功能,再进行迁移。

    来自:帮助中心

    查看更多 →

  • 开启透明数据加密功能

    硬盘被盗导致数据泄露。 黑客入侵系统进行文件复制导致数据泄露。在没有启用TDE的情况下,只要获得了数据库文件,即可直接浏览数据库中的所有内容,但如果在数据库上启用了TDE,整个数据被安全加密;没有密钥就不能访问到数据。 使用限制 云数据库 RDS for MySQ L实例 已开通密钥管理服务(Key

    来自:帮助中心

    查看更多 →

  • 创建数据包导入任务

    创建数据导入任务 功能介绍 创建数据导入任务 URI POST /v1.0/{project_id}/data/import-records 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目id,获取方法请参见获取项目ID 请求参数

    来自:帮助中心

    查看更多 →

  • 分区导入数据性能优化

    分区导入数据性能优化 场景描述 当往分区表中插入数据时候,如果插入的数据为常量/参数/表达式等简单类型,会自动对INSERT算子进行执行优化(FastPath)。可以通过执行计划来判断是否触发了执行优化,触发执行优化时Insert计划前会带有FastPath关键字。 示例 gaussdb=#

    来自:帮助中心

    查看更多 →

  • 从OBS导入ORC、CARBONDATA数据

    从OBS导入ORC、CARBONDATA数据 OBS上的数据准备 创建外部 服务器 创建外表 通过外表查询OBS上的数据 清除资源 支持的数据类型 父主题: 从OBS并行导入数据

    来自:帮助中心

    查看更多 →

  • 关于COPY FROM STDIN导入数据

    关于COPY FROM STDIN导入数据 这种方式适合数据写入量不太大, 并发度不太高的场景。 用户可以使用以下方式通过COPY FROM STDIN语句直接向GaussDB(DWS)写入数据。 通过键盘输入向GaussDB(DWS)写入数据。 通过JDBC驱动的CopyMan

    来自:帮助中心

    查看更多 →

  • 使用Loader导入数据

    使用sftp-connector或ftp-connector导入数据时,在数据转换步骤中,需要将原数据中时间类型数值对应的字段,设置为字符串类型,才能精确到毫秒并完成导入数据中包含比毫秒更精确的部分不会被导入。 使用generic-jdbc-connector导入数据时,在数据转换步骤中,建议“CHAR”或

    来自:帮助中心

    查看更多 →

  • 通过本地文件导入导出数据

    通过本地文件导入导出数据 在使用JAVA语言基于GaussDB进行二次开发时,可以使用CopyManager接口,通过流方式,将数据库中的数据导出到本地文件或者将本地文件导入数据库中,文件支持 CS V、TEXT等格式。 代码运行的前提条件: 根据实际情况添加gaussdbjdbc.

    来自:帮助中心

    查看更多 →

  • 增强OpenSearch集群数据导入性能

    增强OpenSearch集群数据导入性能 特性介绍 数据导入性能增强为 云搜索服务 自主研发的特性,通过优化Bulk路由、文本索引加速、分词加速等方式,有效提升导入性能以及降低写入拒绝的情况。适用于索引分片较多、文本索引量大、导入吞吐量高的场景。 表1 数据导入性能优化方式 优化方式 功能描述 相关文档

    来自:帮助中心

    查看更多 →

  • 通过本地文件导入导出数据

    通过本地文件导入导出数据 在使用JAVA语言基于GaussDB进行二次开发时,可以使用CopyManager接口,通过流方式,将数据库中的数据导出到本地文件或者将本地文件导入数据库中,文件格式支持CSV、TEXT等格式。 代码运行的前提条件: 根据实际情况添加opengaussjdbc

    来自:帮助中心

    查看更多 →

  • 使用LOAD DATA导入本地数据

    使用LOAD DATA导入本地数据 此章节介绍如何通过LOAD DATA将本地数据导入TaurusDB。 语法 LOAD DATA LOCAL INFILE 'file_name' [REPLACE | IGNORE] INTO TABLE tbl_name

    来自:帮助中心

    查看更多 →

  • 导入导出Hive表/分区数据

    区值的数据导入到表中分区时导入的表必须是分区表。 导入数据时需注意: 使用import from '/tmp/export';命令导入表是没有指定表名的场景,该场景导入数据会保存到与源表名相同的表路径下,需注意以下两点: 如果目标集群上不存在与源集群上同名的表,在导入表的过程中会创建该表。

    来自:帮助中心

    查看更多 →

  • 从OBS并行导入数据

    从OBS并行导入数据 关于OBS并行导入 从OBS导入CSV、TXT数据 从OBS导入ORC、CARBONDATA数据 父主题: 导入数据

    来自:帮助中心

    查看更多 →

  • 从OBS导入CSV、TXT数据

    从OBS导入CSV、TXT数据 创建访问密钥(AK和SK) 上传数据到OBS 创建OBS外表 执行导入数据 处理导入错误 OBS导入数据示例 父主题: 从OBS并行导入数据

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了