云数据库 RDS for MySQL

 

云数据库 RDS for MySQL拥有即开即用、稳定可靠、安全运行、弹性伸缩、轻松管理、经济实用等特点,让您更加专注业务发展。

 
 

    数据库建表 更多内容
  • 配置Spark表、列和数据库的用户权限

    配置Spark、列和数据库的用户权限 操作场景 使用SparkSQL操作或者数据库时,如果用户访问别人创建的数据库,需要授予对应的权限。为了实现更严格权限控制,SparkSQL也支持列级别的权限控制。如果要访问别人创建的上某些列,需要授予列权限。以下介绍使用Manage

    来自:帮助中心

    查看更多 →

  • OBS导入数据到SQL Server时出现Unable to execute the SQL statement怎么处理?

    Cause : 将截断字符串或二进制数据。 原因分析 用户OBS中的数据超出了SQL Server数据库的字段长度限制。 解决方法 在SQL Server数据库时,将数据库字段改大,长度不能小于源端OBS中的数据长度。 父主题: 故障处理类

    来自:帮助中心

    查看更多 →

  • 数据管理服务 DAS

    对象列表下包括表、视图、存储过程、事件、触发器和函数六部分。 ①:MySQL数据包含基本信息、字段/列信息、虚拟列、索引、外键5大组成部分,其中,虚拟列、索引、外键为可选项。通过在数据库中的操作,可以直接操作数据。 ②视图:就是一个或者多个的一个映射,一般只做查询使用。 ③事件:即时间触发器,它可以完成在特定的时间完成特定的操作。

    来自:帮助中心

    查看更多 →

  • 配置Spark表、列和数据库的用户权限

    配置Spark、列和数据库的用户权限 操作场景 使用SparkSQL操作或者数据库时,如果用户访问别人创建的数据库,需要授予对应的权限。为了实现更严格权限控制,SparkSQL也支持列级别的权限控制。如果要访问别人创建的上某些列,需要授予列权限。以下介绍使用Manage

    来自:帮助中心

    查看更多 →

  • 步骤3:在GaussDB数据库中创建外表

    步骤3:在 GaussDB 数据库中创建外 使用SQL客户端工具连接GaussDB数据库。 根据需要导入数据信息1,创建如下外: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

    来自:帮助中心

    查看更多 →

  • 数据库

    单击“调用次数”、“平均响应时间”等列的蓝色字体数值,会以图的形式显示对应的数值详情。 搜索:搜索框设置搜索条件后,单击,查看满足搜索条件的实例列。 单击列右上角的自定义列项,使界面上显示您需要查看的指标数据。 单击列右上的导出列项,可以导出当前页的列信息,最大支持导出100条。 父主题:

    来自:帮助中心

    查看更多 →

  • 数据库

    数据库 在MySQL中,DATABASE 是一种模式对象,等同于Oracle、GaussDB(DWS)数据库的SCHEMA概念。DSC工具迁移时考虑了以下两个场景。 创建数据库 输入示例 create database IF NOT EXISTS dbname1 CHARACTER

    来自:帮助中心

    查看更多 →

  • 配置Hive目的端参数

    先删除后创建: CDM 先删除“名”参数中指定的,然后再重新创建该。 说明: 自动只同步列注释,注释不会被同步。 自动不支持同步主键。 不自动创建 导入前清空数据 选择目的端中数据的处理方式: 是:任务启动前会清除目标中数据。 否:导入前不清空目标中的数据,如果选“否”且中有数据,则数据会追加到已有的表中。

    来自:帮助中心

    查看更多 →

  • 连接池参数

    on表示强制使用新连接。 off示使用现有连接。 默认值:off pooler_connect_max_loops 参数说明:pooler链重试功能使用,主备切换场景增强链稳定性,若节点间pooler链失败会跟备机重试连,此时若恰好备机升主机成功,则可以在重试阶段链成功。该参数可以

    来自:帮助中心

    查看更多 →

  • 配置Hive表、列或数据库的用户权限

    配置Hive、列或数据库的用户权限 操作场景 使用Hive或者数据库时,如果用户访问别人创建的数据库,需要授予对应的权限。为了实现更严格权限控制,Hive也支持列级别的权限控制。如果要访问别人创建的上某些列,需要授予列权限。以下介绍使用Manager角色管理功能在授权、列授权和数据库授权三个场景下的操作。

    来自:帮助中心

    查看更多 →

  • 查看表详情

    选择需要登录的目标数据库实例,单击操作列中的“登录”,登录目标数据库实例。 您可在顶部导航栏选择“库管理”。 在“当前所在库”右侧单击“切换库”,切换至目标数据库。 图1 切换数据库 在库管理页面对象列页签中选择“”,在右侧操作栏中单击“查看详情”。 图2 查看详情 在查

    来自:帮助中心

    查看更多 →

  • 目标数据库schema及表对象一致性检查

    不通过原因:已选择的在目标数据库不存在,或与源数据库结构不一致。 处理建议:在目标数据库不存在时请在目标数据库中,并确保与源数据库结构一致。 语句参考: CREATE TABLE table_name(Column_name data_type); 与源数据库结构不一致时请在

    来自:帮助中心

    查看更多 →

  • MRS Hive写入时数据全部写在第一个字段里

    MRS Hive写入时数据全部写在第一个字段里 原因分析 时没有使用列分隔符。 解决方案 在数据库中执行以下命令设置分隔符: alter table 名set serdeproperties('field.delim'='分隔符') 父主题: 数据集成任务

    来自:帮助中心

    查看更多 →

  • Hive对接OBS文件系统

    在当前数据库(不指定Location)默认也指向当前HDFS。如需修改默认策略可以修改数据库的Location重新指向OBS。操作如下: 执行以下命令查看数据库Location。 show create database obs_test; 图7 查看Hive的Location

    来自:帮助中心

    查看更多 →

  • GAUSS-04391 -- GAUSS-04400

    identical distribution column '%s'" SQLSTATE: 42P16 错误原因:时指定了两个相同的分布列。 解决办法:修改建语句。 父主题: GAUSS-04301 -- GAUSS-04400

    来自:帮助中心

    查看更多 →

  • 查看表详情

    选择需要登录的目标数据库实例,单击操作列中的“登录”,登录目标数据库实例。 在顶部导航栏选择“库管理”。 在“当前所在库”右侧单击“切换库”,切换至目标数据库。 图1 切换数据库 在对象列页签左侧菜单栏单击“”。 在中选择目标,单击右侧操作栏“查看详情”。 图2 查看详情

    来自:帮助中心

    查看更多 →

  • 入门实践

    当您购买并连接到DDM逻辑库后,可以根据自身的业务需求使用DDM提供的一系列常用实践。 1 常用实践 场景 案例 描述 SQL语法 SQL使用规范 本实践主要介绍DDM中常见SQL的使用规范。 DDL语法 本实践主要介绍DDM中常见的DDL语法,如库,,修改结构等。 DML语法 本实践主要介绍DDM中常见的

    来自:帮助中心

    查看更多 →

  • 数据库参数innodb

    ict_mode=ON,示执行时使用严格模式,当创建(CREATE TABLE)、更改(ALTER TABLE)和创建索引(CREATE INDEX)语句有错误时,不会触发警告信息,而是直接抛出错误。innodb_strict_mode=OFF,示执行时使用非严格模式,即

    来自:帮助中心

    查看更多 →

  • 源库加密表检查

    源库加密检查 MySQL、GaussDB(for MySQL)为源场景 1 源库加密检查 预检查项 源库加密检查 描述 检查源库是否存在加密。 不通过提示及处理 待确认原因:当前源库存在加密的,请确认目标库是否支持。如果目标库不支持,存在任务失败等风险。 处理建议:

    来自:帮助中心

    查看更多 →

  • OBS导入数据到SQL Server时出现Unable to execute the SQL statement怎么处理?

    Cause : 将截断字符串或二进制数据。 原因分析 用户OBS中的数据超出了SQL Server数据库的字段长度限制。 解决方法 在SQL Server数据库时,将数据库字段改大,长度不能小于源端OBS中的数据长度。 父主题: 数据集成

    来自:帮助中心

    查看更多 →

  • Spark开源命令支持说明

    TABLE testDB.testTable1 AS SERDE; Spark 3.3.1 执行该语句时,仅适用于查询Hive语句。 不支持 支持 返回语句 SHOW CREATE TABLE testDB.testTable1; 支持 支持 父主题: Spark SQL语法参考(即将下线)

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了