ClickHouse数据入库规范
规则
- 写本地表,查询分布式表,提升写入和查询性能,保证写入和查询的数据一致性。
- 只有在去重诉求的场景下,可以使用分布式表插入,通过sharding key将要去重的数据转发到同一个shard,便于后续去重查询。
- 外部模块保证数据导入的幂等性。
ClickHouse不支持数据写入的事务保证。通过外部导入数据模块控制数据的幂等性,比如某个批次的数据导入异常,则drop对应的分区数据或清理掉导入的数据后,重新导入该分区或批次数据。
建议
- 写入速率
单节点写入速度为50~200MB/S,如果写入的数据每行为1Kb,那么写入的速度为50,000到200,000行每秒,如果行数据容量更小,那么写入速度将更高,如果写入性能不够,可以使用多个副本同时写入,同一时间每个副本写入的数据保持均衡。
- 慎用分布式表批量插入
- 写分布式表,数据会分发到集群的所有本地表,每个本地表插入的数据量是总插入量的1/N,batch size可能比较小,导致data part过多,merge压力变大,甚至出现异常影响数据插入;
- 数据的一致性问题:数据先在分布式表写入节点的主机落盘,然后数据被异步地发送到本地表所在主机进行存储,中间没有一致性的校验,如果分布式表写入数据的主机出现异常,会存在数据丢失风险;
- 对于数据写分布式表和数据写本地表相比,分布式表数据写入性能也会变慢,单批次分布式表写,写入节点的磁盘和网络IO会成为性能瓶颈点。
- 分布式表转发给各个shard成功与否,插入数据的客户端无法感知,转发失败的数据会不断重试转发,消耗CPU。
- 大批量数据导入要分时、分节点、扩容
如果数据盘为SATA盘,当大批量数据集中插入时候,会抢占磁盘,使得磁盘长时间处于繁忙状态,影响其他alter类操作的效率。
尽量避免批量导数据的SQL并发执行,会给磁盘和ClickHouse并发能力带来冲击。
- Kafka数据入库
不建议建ClickHouse kafka表引擎,进行数据同步到ClickHouse中,当前CK的kafka引擎有会导致kafka引擎数据入库产生性能等诸多问题,通过用户使用经验,需要应用侧自己写kafka的数据消费,攒批写入ClickHouse,提升ClickHouse的入库性能。
- 使用分区替换或增加的方式写入数据
为避免目标表写入脏数据导致的删改,先将数据写入临时表,再从临时表写入目标表。
操作步骤如下:
- 创建一张与目标表table_dest结构、分区键、排序键、主键、存储策略、引擎都一致的临时表table_source。
- 先把数据写到临时表,一次只写入一个分区的数据,检查临时表的数据准确无误。
- 使用以下SQL查看目标表的分区:
SELECT partition AS `partition`,sum(rows) AS `count` FROM system.parts WHERE active AND database=='数据库名' AND table=='表名' GROUP BY partition ORDER BY partition ASC;
- 如果目标表存在该分区,将分区替换到目标表,到集群的每个节点上执行如下语法:
ALTER TABLE table_dest REPLACE PARTITION partition_expr FROM table_source;
- 如果目标表不存在该分区,将分区增加到目标表,到集群的每个节点上执行如下语法:
ALTER TABLE table_dest REPLACE PARTITION tuple() partition_expr FROM table_source;