云数据库 RDS for MySQL

 

云数据库 RDS for MySQL拥有即开即用、稳定可靠、安全运行、弹性伸缩、轻松管理、经济实用等特点,让您更加专注业务发展。

 
 

    mysql建表规范 更多内容
  • Doris建表规范

    文件。 创建时的副本数必须至少为2,默认是3,禁止使用单副本。 没有聚合函数列的不应该被创建为AGGREGATE。 创建主键时需保持主键的列唯一,不建议将所有列都设置为主键列,且主键需设置value列。主键不建议用于数据去重场景。 Doris建议 单物化视图不能

    来自:帮助中心

    查看更多 →

  • SparkSQL建表参数规范

    SparkSQL参数规范 规则 必须指定primaryKey和preCombineField。 Hudi提供了数据更新的能力和幂等写入的能力,该能力要求数据记录必须设置主键用来识别重复数据和更新操作。不指定主键会导致丢失数据更新能力,不指定preCombineField会导致主键重复。

    来自:帮助中心

    查看更多 →

  • GaussDB(for MySQL)库表设计规范

    避免使用分区,如有需要,可以使用多个独立的代替。 分区的缺点: DDL操作需要锁定所有分区,导致所有分区上操作都被阻塞。 当数据量较大时,对分区进行DDL或其他运维操作难度大风险高。 分区使用较少,存在未知风险。 当单台 服务器 性能无法满足时,对分区进行分拆的成本较高。

    来自:帮助中心

    查看更多 →

  • GaussDB(for MySQL)SQL使用规范

    字段,数据类型必须保持一致。 多关联查询时,保证被关联的字段需要有索引;在多join中,尽量选取结果集较小的作为驱动,用来join其他。即使双join也要关注索引、SQL性能情况。 对于超大的查询,还需要遵循以下规范。 可通过开启慢查询日志来找出较慢的SQL。 不做列运算:SELECT

    来自:帮助中心

    查看更多 →

  • Kafka表开发规范

    Kafka开发规范 Kafka开发规则 Kafka开发建议 父主题: FlinkSQL Connector开发规范

    来自:帮助中心

    查看更多 →

  • 自动建表原理介绍

    WS, CDM 在DWS上自动,会将Oracle的NUMBER(3,0)字段映射到DWS的SMALLINT。 图1 自动的字段映射 CDM在Hive中自动时,Hive与源的字段类型映射关系参见1、2、3及4。例如使用CDM将MySQL整库迁移到Hive,CDM

    来自:帮助中心

    查看更多 →

  • 自动建表原理介绍

    WS,CDM在DWS上自动,会将Oracle的NUMBER(3,0)字段映射到DWS的SMALLINT。 图1 自动的字段映射 CDM在Hive中自动时,Hive与源的字段类型映射关系参见1、2、3及4。例如使用CDM将MySQL整库迁移到Hive,CDM

    来自:帮助中心

    查看更多 →

  • 自动建表映射规则

    自动映射规则 配置字段映射时,数据源支持的数据类型请参见1,以确保数据完整导入到目的端。 1 支持的数据类型 数据连接类型 数据类型说明 MySQL 请参见MySQL数据库作为源端时目的端自动支持的数据类型。 MySQL数据库作为源端时目的端自动支持的数据类型 源

    来自:帮助中心

    查看更多 →

  • GaussDB(for MySQL)索引设计规范

    index:示使用索引,如果只有 Using index,说明没有查询到数据,只用索引即完成了这个查询,这种情况为覆盖索引。如果同时出现Using where,代使用索引来查找读取记录, 也是可以用到索引的,但是需要查询到数据。 Using where:示条件查询,如

    来自:帮助中心

    查看更多 →

  • GaussDB(for MySQL)数据库权限规范

    GaussDB (for MySQL)数据库权限规范 所有DDL(例如:创建,更改结构等)只有通过评审后,由DBA通过数据管理服务(Data Admin Service)执行,在业务低峰期操作上线。 权限需要进行细粒度控制,读写权限分开,运维和开发权限要分开。 DDL操作保留操作日志。

    来自:帮助中心

    查看更多 →

  • Spark表数据维护规范

    Spark数据维护规范 禁止通过Alter命令修改关键属性信息:type/primaryKey/preCombineField/hoodie.index.type 错误示例,执行如下语句修改关键属性: alter table dsrTable set tblproperties('type'='xx');

    来自:帮助中心

    查看更多 →

  • ClickHouse表开发规范

    ClickHouse开发规范 ClickHouse开发规则 ClickHouse开发建议 父主题: FlinkSQL Connector开发规范

    来自:帮助中心

    查看更多 →

  • 规范

    规范 云商店商家合作管理规范 云商店商品安全审核标准3.0

    来自:帮助中心

    查看更多 →

  • GaussDB(for MySQL)标准版实例使用规范

    建议根据业务需要设置备份保留天数(默认保留7天)。 建议根据业务需要设置Binlog本地保留时长(默认为0,示Binlog备份完成后本地日志会被删除)。 使用级时间点恢复功能时,建议提前确认所选时间点之前是否有对无主键大的删除操作,如果有该操作,恢复完成时间不易评估。 创建实例前建议根据需要选择存储类型。

    来自:帮助中心

    查看更多 →

  • HBase数据表开发规范

    HBase数据开发规范 HBase数据开发规则 HBase数据开发建议 父主题: FlinkSQL Connector开发规范

    来自:帮助中心

    查看更多 →

  • Flink流式写Hudi表规范

    Flink流式写Hudi规范 Flink流式写Hudi规则 Flink流式写Hudi建议 父主题: Flink on Hudi开发规范

    来自:帮助中心

    查看更多 →

  • Hudi表模型设计规范

    流式计算采用MOR。 流式计算为低时延的实时计算,需要高性能的流式读写能力,在Hudi中存在的MOR和COW两种模型中,MOR的流式读写性能相对较好,因此在流式计算场景下采用MOR模型。关于MOR在读写性能的对比关系如下: 对比维度 MOR COW 流式写 高 低 流式读

    来自:帮助中心

    查看更多 →

  • Hudi数据表Compaction规范

    规则 有数据持续写入的,24小时内至少执行一次compaction。 对于MOR,不管是流式写入还是批量写入,需要保证每天至少完成1次Compaction操作。如果长时间不做compaction,Hudi的log将会越来越大,这必将会出现以下问题: Hudi读取很慢,且需要很大的资源。

    来自:帮助中心

    查看更多 →

  • Hudi表分区设计规范

    议使用。 建议 事实采用日期分区,维度采用非分区或者大颗粒度的日期分区 是否采用分区要根据的总数据量、增量和使用方式来决定。从的使用属性看事实和维度具有的特点: 事实:数据总量大,增量大,数据读取多以日期做切分,读取一定时间段的数据。 维度:总量相对小,增量小

    来自:帮助中心

    查看更多 →

  • Hudi数据表Clean规范

    Hudi数据Clean规范 Clean也是Hudi的维护操作之一,该操作对于MOR和COW都需要执行。Clean操作的目的是为了清理旧版本文件(Hudi不再使用的数据文件),这不但可以节省HudiList过程的时间,也可以缓解存储压力。 规则 Hudi必须执行Clean。

    来自:帮助中心

    查看更多 →

  • Doris数据表开发规范

    Doris数据开发规范 Doris数据开发规则 父主题: FlinkSQL Connector开发规范

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了