更新时间:2024-05-30 GMT+08:00
分享

业务过载处理建议

方案概述

Kafka业务过载,一般表现为CPU使用率高、磁盘写满的现象。

  • 当CPU使用率过高时,系统的运行速度会降低,并有加速硬件损坏的风险。
  • 当磁盘写满时,相应磁盘上的Kafka日志目录会出现offline问题。此时,该磁盘上的分区副本不可读写,降低了分区的可用性和容错能力。同时由于Leader分区迁移到其他节点,会增加其他节点的负载。

CPU使用率高的原因

  • 数据操作相关线程数(num.io.threads、num.network.threads、num.replica.fetchers)过多,导致CPU繁忙。
  • 分区设置不合理,所有的生产和消费都集中在某个节点上,导致CPU利用率高。

磁盘写满的原因

  • 业务数据增长较快,已有的磁盘空间不能满足业务数据需要。
  • 节点内磁盘使用率不均衡,生产的消息集中在某个分区,导致分区所在的磁盘写满。
  • Topic的数据老化时间设置过大,保存了过多的历史数据,容易导致磁盘写满。

实施步骤

CPU使用率高的处理措施:

  • 优化线程参数num.io.threads、num.network.threads和num.replica.fetchers的配置。
    • num.io.threads和num.network.threads建议配置为磁盘个数的倍数,但不能超过CPU核数。
    • num.replica.fetchers建议配置不超过5。
  • 合理设置Topic的分区,分区一般设置为节点个数的倍数。
  • 生产消息时,给消息Key加随机后缀,使消息均衡分布到不同分区上。

    在实际业务场景中,为消息Key加随机后缀,会导致消息全局不保序,需根据实际业务判断是否适合给消息Key加随机后缀。

磁盘写满的处理措施:

  • 扩容磁盘,使磁盘具备更大的存储空间。
  • 迁移分区,将已写满的磁盘中的分区迁移到本节点的其他磁盘中。
  • 合理设置Topic的数据老化时间,减少历史数据的容量大小。
  • 在CPU资源情况可控的情况下,使用压缩算法对数据进行压缩。

    常用的压缩算法包括:ZIP,GZIP,SNAPPY,LZ4等。选择压缩算法时,需考虑数据的压缩率和压缩耗时。通常压缩率越高的算法,压缩耗时也越高。对于性能要求高的系统,可以选择压缩速度快的算法,比如LZ4;对于需要更高压缩比的系统,可以选择压缩率高的算法,比如GZIP。

    可以在生产者端配置“compression.type”参数来启用指定类型的压缩算法。

    Properties props = new Properties();
    props.put("bootstrap.servers", "localhost:9092");
    props.put("acks", "all");
    props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
    props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
    // 开启GZIP压缩
    props.put("compression.type", "gzip");
     
    Producer<String, String> producer = new KafkaProducer<>(props);
分享:

    相关文档

    相关产品