遇到了消息堆积,但是问题不大

共 3233字,需浏览 7分钟

 ·

2021-10-28 23:58

b05a85ff348fa27bd770116f01365f21.webp


大家好,我是captain,如果觉得下面的文章对你有所帮助,欢迎大家关注


上一篇说过了如何保证消息不丢失,分别从producer、broker和consumer三个角色来保证消息的不丢失,其实说到底也不可能百分百保证消息不丢失,这种当然是极端的情况下


在这之前还有很多篇,传送门在这里



这一篇我们要说的话题是消息的堆积处理,其实这个话题还是挺大的,因为消息堆积还是真的很令人头疼的,当堆积的量很大的时候,这真的是个很暴躁的问题,不过这时候真考验大家冷静的处理问题的能力了


                            6a226acca2f4ad3ae2bcc9efaa527a54.webp


我们一起来分析分析有关问题吧


大量的消息堆积在MQ中几个小时还没解决怎么办呢


一般这种比较着急的问题,最好的办法就是临时扩容,用更快的速度来消费数据


     1、临时建立一个新的Topic,然后调整queue的数量为原来的10倍或者20倍,根据堆积情况来决定


     2、然后写一个临时分发消息的consumer程序,这个程序部署上去消费积压的消息,消费的就是刚刚新建的Topic,消费之后不做耗时的处理,只需要直接均匀的轮询将这些消息轮询的写入到临时创建的queue里面即可


     3、然后增加相应倍数的机器来部署真正的consumer消费,注意这里的Topic,然后让这些consumer去真正的消费这些临时的queue里面的消息


不知道大家明白没有,很简单的道理,我给大家举个形象的例子


一个topic堵住了,新建一个topic去进行分流,临时将queue资源和consumer资源扩大10倍,将消息平均分配到这些新增的queue资源和consumer资源上,以正常10倍的速度来消费消息,等到这些堆积的消息消费完了,便可以恢复到原来的部署架构


这种只是用于临时解决一些异常情况导致的消息堆积的处理,如果消息经常出现堵塞的情况,那该考虑一下彻底增强系统的部署架构了


消息设置了过期时间,过期就丢了怎么办呢


在rabbitmq中,可以设置过期时间TTL,和Redis的过期时间一样,如果消息在queue中积压超过一定时间就会被rabbitmq清理掉,这个数据就没了


这样可能会造成大量的数据丢失


这种情况下上面的解决方案就不太合适了,可以采取批量重导的方案来解决,在系统流量比较低的时候,用程序去查询丢失的这部分数据,然后将消息重新发送到MQ中,把丢失的数据重新补回来


这也算是一种补偿任务吧,补偿任务一般是用于对定时跑批的一种补偿


分析下RocketMQ中的消息堆积原因


消息的堆积归根到底就是生产者生产消息的速度和消费者消费的速度不匹配导致的,输入的和消费的速度不统一


或许是突然搞了一波促销,系统业务量暴增,导致生产者发消息暴增,消费速度跟不上


也有可能是消费方出现失败的情况,疯狂重试,也或者就是消费方的消费能力太低了


                             e4baf9b6feb2bedf9cf1fb91a96124a6.webp


RocketMQ是按照队列进行消息负载的,如果consumer中的一台机器由于硬件各方面原因导致该机器上的消息队列不能及时处理,就会造成整个消息队列的堆积


RocketMQ分为发布方和订阅方,双方都有负载均衡策略,默认都是采用平均分配,producer消息以轮询方式发送到消息队列queue中,broker将这些的queue再平均分配到属于同一个group id的订阅方集群


  • .如果消费者consumer机器数量和消息队列相等,则消息队列平均分配到每一个consumer上

  • 如果consumer数量大于消息队列数量,则超出消息队列数量的机器没有可以处理的消息队列

  • 若消息队列数量不是consumer的整数倍,则部分consumer会承担跟多的消息队列的消费任务


如果其中一台机器处理变慢,可能是机器硬件、系统、远程 RPC 调用或 Java GC 等原因导致分配至此机器上的 Queue 的消息不能及时处理


消息队列 RocketMQ 版的消息负载是按 Queue 为粒度维护,所以,整个 Queue 上的消息都会堆积


那说一下解决思路吧


我们知道了最根本原因是生产和消费速度不匹配导致的,这种问题要是经常出现,就是系统架构导致,这种需要考虑增加消费方的数量了


如果是搞促销的这种临时情况导致的,这种情况下系统应该会比较快的消化掉,堆积时间不会很快,如果搞促销时间很长,持续高流量时间很长,那没得办法,还是得加机器


经常出现这种消息堆积问题,需要先定位一下消费满的原因,也也可能是代码bug,导致多次重试,如果是bug则处理bug,优化下消费的逻辑


再者就要考虑水平扩容,增加Topic的queue数量和消费者的数量,这两者增加的时候需要考虑两边的平衡,队列数量一定要增加,不然新增加的消费数量者会导致无消息消费的尴尬场面,一个topic中的一个队列只会分配给一个消费者


消费者数量超过队列数量的时候,超出的部分消费者就无消息可以消费了


RocketMQ中消费完的消息去了哪里呢


消息的存储是一直存在于CommitLog文件中的,大家都知道CommitLog是以文件为单位存在的,而且RocketMQ的设计是只允许顺序写,也就意味着所有消息都是顺序的写入到这个文件中的


而每个消息的大小又不是定长的,所以这就决定了消息几乎不可能按照消息为单位进行删除,逻辑极其复杂


消息一旦被消费了之后是不会被立即清除的,还是会存在于CommitLog文件中的,那问题来了,消息未删除,RocketMQ是如何知道哪些消息已经被消费过,哪些还未消费呢


答案就是客户端会维护一个消息的offset,客户端拉取完消息之后,broker会随着响应体返回一个下一次拉取的位置,消费者会更新自己的下一次的pull的位置


CommitLog文件什么时候进行清除


消息存储到该文件之后,也是会被清理的,但是这个清理只会在下面这些条件中,任一条件成立的时候才会批量的删除CommitLog消息文件


  • 消息文件过期(默认72小时),且到达清理时点(默认是凌晨4),删除过期文件。

  • 消息文件过期(默认72小时),且磁盘空间达到了水位线(默认75%),删除过期文件。

  • 磁盘已经达到必须释放的上限(85%水位线)的时候,则开始批量清理文件(无论是否过期),直到空间充足。



注:若磁盘空间达到危险水位线(默认90%),出于保护自身的目的,broker会拒绝写入服务。

 

为什么这么设计呢


CommitLog文件默认大小是1GB,在清理的时候属于大文件操作了,IO压力也是有的,这样设计该文件的优点我大概说几个,当然肯定还有些别的


只需要保存一份消息文件:一个消息如果需要被多个消费者组消费,消息只需要保存一份即可,消费进度单独保存,这样比较容易支撑强大的消息存储能力


支持回溯:把消息的消费位置的决定权放在客户端,只要消息还在,就可以消费,所以也就有了RocketMQ支持的回溯消费


像看视频一样,可以把镜头调到前面去,重新看一遍刚刚的视频


支持消息索引服务:RocketMQ中有一个索引文件,消息只要还存在于CommitLog中,就可以被搜索出来,方便排查问题



佛系求关注




Captain希望有一天能够靠写作养活自己,现在还在磨练,这个时间可能会持续很久,但是,请看我漂亮的坚持


感谢大家能够做我最初的读者和传播者,请大家相信,只要你给我一份爱,我终究会还你们一页情的。


Captain会持续更新技术文章,和生活中的暴躁文章,欢迎大家关注【Java贼船】,成为船长的学习小伙伴,和船长一起乘千里风、破万里浪


哦对了,后续所有的远程文章都会更新到这里


https://github.com/DayuMM2021/Java


e4656741ba4c8d29f3c15c7bec0b4b91.webp


浏览 47
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报