如何检测和解决大key与热key问题
Cassandra数据库是一个高度可扩展的高性能分布式数据库,面向大数据场景,可用于管理大量的结构化数据。在业务使用的过程中,随着业务量和数据流量的持续增长,往往一些业务的设计弊端逐渐暴露出来,降低了集群的稳定性和可用性。比如主键设计不合理,单个分区的记录数或数据量过大,出现超大分区键,引起了节点负载不均,集群稳定性会下降,这一类问题称为大key问题。当某一热点key的请求在某一主机上的访问超过服务器极限时,会导致热点Key问题的产生。往往大key是造成热key问题的间接原因。
GeminiDB Cassandra是一款基于华为自研的计算存储分离架构、兼容Cassandra生态的云原生分布式NoSQL数据库。针对以上问题,GeminiDB Cassandra 提供了大key和热key的实时检测,以帮助业务进行合理的Schema设计,规避业务稳定性风险。
大key问题
- 可能原因:
大key的产生,最主要的原因是主键设计不合理,使得单个分区的记录数或数据量过大。一旦某一个分区出现极大时,对该分区的访问,会造成分区所在服务器的负载变高,甚至造成节点内存溢出(OOM)等。
- 处理思路:
针对大key问题,一般采取如下两种处理思路。
- 增加缓存,优化表结构。
- 基于现有分区键,增加分区键散列。对数据进行打散,避免单个分区的记录过大。
- 检测方法:
通过长时间的业务观察,我们规定以下阈值,超过任何一个条件的阈值即为大key。
- 单个分区键的行数不能超过10万。
- 单个分区的大小不超过100MB。
GeminiDB Cassandra支持了大key的检测与告警。在CES界面,可以配置实例的大key告警,具体方法请参见设置告警规则。
当发生大key事件时,系统会第一时间发送预警通知,您可以前往CES界面查看监控事件数据,及时处理,避免业务波动。
图1 大key告警查看事件
告警字段说明如下:
[ { "partition_size": "1008293497", //超大分区键的总大小 "timestamp": "2021-09-08 07:08:18,240", //大key产生时间 "partition_num": "676826", //超大分区键的总行数 "keyspace_name": "ssss", //keyspace名称 "node_id": "ae342330ded14605b6304e80e6a6efeeno06", //节点id "table_name": "zzzz", //表名称 "table_id": "024a1070-0064-11eb-bdf3-d3fe5956183b", //表id "partition_key": "{vin=TESTW3YWZD2021003}" //分区键 } ]
- 常见案例及解决方案:
案例1:某集群的数据量过大,导致集群存在大分区键(排查数量大概为2000+),最大的分区键达到38GB。当业务频繁访问这部分大的分区键时,会导致节点持续高负载,影响业务请求成功率。
该案例中表结构设计如下:
表设计分析:
上述movie表保存了短视频的相关信息,分区键为movieid,并且保存了用户信息(uid)。如果movieid是一个热门短视频,有几千万甚至上亿用户点赞此短视频,则该热门短视频所在的分区非常大(当前发现有38GB)。
解决方法:
针对上述案例中问题,可以通过如下方法解决。
- 优化表结构。
创建新表保存热门短视频信息,只保留短视频公共信息,不包含用户信息,确保该表不会产生大的分区键。热门短视频信息写入该表中。
- 增加缓存
业务应用先从缓存中读取热门文件信息,没有查询到,则从数据库中查询,减少数据库查询次数。
整体优化逻辑如下:
- 先查缓存,当缓存存在,直接返回结果。
- 当缓存不存在,查询热门视频缓存(缓存不存在,则查询hot表),当视频为为热门视频时,查询hotmovieaccess表。
- 当hotmovieaccess表存在结果时,直接返回。当hotmovieaccess表不存在记录时,查询movie表。
- 并缓存查询结果。
案例2:movie_meta以月度建表,每个表只存当月的数据,初始的这种设计是可以减轻或规避分区键过大问题的。由于业务频繁写入,热门视频存储的记录非常多,还是形成了大的数据分区。
解决方法:
新分区键增加一个随机数(0~999):将原来一个分区存储的信息随机离散存储到1000个分区中。采用新的分区键之后,没有形成新超过100MB的分区键,旧的超过100MB的分区键数据,随着时间过期即可。
- 优化表结构。
热key问题
- 热key的危害:
在日常生活中,经常会发生各种热门事件,应用中对该热点新闻进行上万次的点击浏览和评论时,会形成一个较大的请求量。这种情况下会造成短时间内对同一个key频繁操作,会导致key所在节点的CPU和负载突然升高,从而影响落在该节点的其他请求,导致业务成功率下降。诸如此类的还有热门商品促销,网红直播等场景,这些典型的读多写少的场景也会产生热点问题。
热key问题会产生如下危害:
- 流量集中,达到物理网卡上限。
- 请求过多,缓存分片服务被打垮。
- 数据库击穿,引起业务雪崩。
- 处理思路:
针对热key问题,一般采取如下处理思路。
- 设计上需要考虑热key的问题,避免在数据库上产生热key。
- 业务侧通过增加缓存来减少热key出现的情况。考虑多级缓存解决热key问题(如Redis + 本地二级缓存)
- 屏蔽热点key。 比如:在业务侧进行定制,支持热key黑白名单能力,可以将热key临时屏蔽。
- 检测方法:
我们定义访问频率大于100000 次/min的key为热key。
热key事件分为两种类型。一种是Writes事件,代表写热点,一种是Reads事件,表示读热点。
GeminiDB Cassandra提供了热key的监测与告警。在CES界面,可以配置实例的热key告警,具体方法请参见设置告警规则。
当发生热key事件时,系统会第一时间发送预警通知,您可以前往CES界面查看监控事件数据,及时处理,避免业务波动。
图2 热key告警
热key告警字段说明:
{ "sampler_type": "WRITES", //采样类型。取值有WRITES,READS;WRITES代表写,READS代表读。 "partition_num": "2969", //分区键的热点次数 "keyspace_name": "performance", //keyspace名称 "table_id": "a10f3bb0-3626-11ec-bbdf-63e05bbb4391", //表id "table_name": "stresstable", //表名 "partition_key": "85897376" //产生热点分区键的值 }
总结
在线业务在使用Cassandra时,必须执行相关的开发规则和使用规范,在开发设计阶段就降低使用风险,合理的设计会降低大部分风险发生的概率。
- 任何表的设计都要考虑是否会造成热key或者大key的产生,是否会造成负载倾斜的问题。
- 建立数据过期机制,表中的数据不能无限制增长而不删除或者过期。
- 针对读多写少的场景,要增加缓存机制,来应对读热点问题,并提升查询性能。
- 对于每个PK以及每行Row的大小,要控制大小,否则将影响性能和稳定性。超出后要及时优化。