当消费者出现异常,很容易引起队列积压,如果一秒钟1000个消息,那么一个小时就是几千万 的消息积压,是非常可怕的事情,但是生产线上又有可能会出现; 当消息积压来不及处理,rabbitMQ如果设置了消息过期时间,那么就有可能由于积压无法及 时处理而过期,这消息就被丢失了; 解决方法如下:

不建议在生产环境使用数据过期策略,一是数据是否丢失无法控制,二是一旦积压就很有可能丢失;建议数据的处理都有代码来控制;

当出现消息积压时,做法就是临时扩大consumer个数,让消息快速消费,一般都 是通过业务逻辑的手段来完成如下:

rabbitmq解决积压范例

  1. 修复consumer代码故隙,确保consumer逻辑正确可以消费

  2. 停止consumer,开启10倍20倍的queue个数

  • 创建一个临时的consumer程序,消费积压的queue,并把消息写入到扩建10倍的queue中
  • 再开启10倍20倍的consumer对新的扩充后队列进行消费
  • 这种做法相当于通过物理资源扩充了10们来快速消费
  1. 当消费完成后,需要恢复原有架构,开启原来的consumer进行正常消费

kafka解决范例

  1. 修复consumer代码故障,确保consumer逻辑正确可以消费
  2. 停止consumer,新建topic,新建10倍20倍的partition个数
  • 创建对应原topic的partition个数的临时的consumer程序,消费原来的topic,并把消息写入到扩建的新topic中
  • 再开启对应新partition个数的consumer对新的topic进行消费
  • 这种做法相当于通过物理资源扩充了10倍来快速消费