大纲

1.RocketMQ集群如何进行权限机制的控制

2.如何对RocketMQ集群进行消息堆积的追踪

3.如何处理RocketMQ的百万消息积压问题

4.针对RocketMQ集群崩溃的金融级高可用方案

5.为RocketMQ增加消息限流功能保证其高可用

6.从Kafka迁移到RocketMQ的双写双读方案

1.RocketMQ集群如何进行权限机制的控制

(1)RocketMQ进行权限控制的必要性

(2)在RocketMQ中实现权限控制的步骤

(1)RocketMQ进行权限控制的必要性

如果一个公司有很多技术团队,每个技术团队都会使用RocketMQ集群中的部分Topic。那么此时可能就会有一个问题:如果订单团队使用的Topic,被商品团队不小心写入了错误的脏数据,那就可能会导致订单团队的Topic里的数据出错。

所以此时就需要在RocketMQ中引入权限功能,也就是规定好订单团队的用户只能使用"OrderTopic"。然后商品团队的用户只能使用"ProductTopic",各团队互相之间不能使用对方的Topic。

(2)在RocketMQ中实现权限控制的步骤

步骤一:首先需要在Broker端放一个额外的ACL权限控制配置文件。配置文件里面需要规定好权限,包括什么用户对哪些Topic有什么操作权限,这样各个Broker才知道每个用户的权限。

步骤二:然后在每个Broker的配置文件里需要设置aclEnable=true,开启权限控制。

步骤三:接着在每个Broker机器的目录下放一个plain_acl.yml的配置文件。这个目录是${ROCKETMQ_HOME}/store/config,这个配置文件的具体权限配置如下:

# 这个参数就是全局性的白名单
# 这里定义的ip地址,都是可以访问Topic的
globalWhiteRemoteAddresses:
- 13.21.33.*
- 192.168.0.* # 这个accounts就是说,你在这里可以定义很多账号
# 每个账号都可以在这里配置对哪些Topic具有一些操作权限
accounts: # 这个accessKey其实就是用户名的意思,比如我们这里叫做“订单技术团队”
- accessKey: OrderTeam # 这个secretKey其实就是这个用户名的密码
secretKey: 123456 # 下面这个是当前这个用户名下哪些机器要加入白名单的
whiteRemoteAddress: # admin指的是这个账号是不是管理员账号
admin: false # 这个指的是默认情况下这个账号的Topic权限和ConsumerGroup权限
defaultTopicPerm: DENY
defaultGroupPerm: SUB # 这个就是这个账号具体的堆一些账号的权限
# 下面就是说当前这个账号对两个Topic,都具备PUB|SUB权限,就是发布和订阅的权限
# PUB就是发布消息的权限,SUB就是订阅消息的权限
# DENY就是拒绝你这个账号访问这个Topic
topicPerms:
- CreateOrderInformTopic=PUB|SUB
- PaySuccessInformTopic=PUB|SUB # 下面就是对ConsumerGroup的权限,也是同理的
groupPerms:
- groupA=DENY
- groupB=PUB|SUB
- groupC=SUB
# 下面就是另外一个账号了,比如是商品技术团队的账号
- accessKey: ProductTeam
secretKey: 12345678
whiteRemoteAddress: 192.168.1.* # 如果admin设置为true,就是具备一切权限
admin: true

上面配置需要注意的是:如果一个账号没有对某个Topic显式指定权限,那么就会采用默认Topic权限。

步骤四:最后在生产者和消费者中,指定分配到的RocketMQ账号。这样,当生产者或消费者使用一个账号时,就只能访问有权限的Topic。

DefaultMQProducer producer = new DefaultMQProducer(
"OrderProducerGroup",
new AclClientRPCHook(new SessionCredentials(OrderTeam, "123456"))
);

上面的代码就是在创建Producer时,传入了一个AclClientRPCHook实例。在AclClientRPCHook里就可以设置这个Producer的账号密码,对于创建Consumer也是同理。通过这样的方式就可以在Broker端设置好每个账号对Topic的访问权限,然后不同的技术团队使用不同的账号即可。

2.如何对RocketMQ集群进行消息堆积的追踪

(1)开启RocketMQ的消息轨迹功能的步骤

(2)配置好消息轨迹功能后消息轨迹的处理流程

(1)开启RocketMQ的消息轨迹功能的步骤

有时候需要了解一条消息的消息轨迹,来协助排查线上问题。比如想知道消息是什么时候从哪个Producer发出来的,什么时候进入到了哪个Broker的哪个Topic,什么时候被哪个Consumer消费的。此时就可以使用RocketMQ的消息轨迹功能,其配置步骤如下:

步骤一:首先在Broker的配置文件里开启消息轨迹追踪的功能,也就是设置traceTopicEnable = true。开启了该功能之后,启动Broker时就会自动创建出一个内部的Topic:RMQ_SYS_TRACE_TOPIC,这个Topic会存储所有消息的轨迹追踪数据。

步骤二:然后在发送消息和消费消息时开启消息轨迹追踪的功能。也就是在创建Producer和Consumer时,其构造函数的第二个参数enableMsgTrace设置为true。

DefaultMQProducer producer = new DefaultMQProducer("TestProducerGroup", true);

(2)配置好消息轨迹功能后消息轨迹的处理流程

当Broker、Producer、Consumer都配置好消息轨迹追踪后:

首先,Producer发送消息时就会上报这个消息的轨迹数据到RMQ_SYS_TRACE_TOPIC里。此时上报的数据包括:Producer的信息、发送消息的时间、消息是否发送成功、发送消息的耗时。

接着,消息到达Broker之后,Broker也会记录消息的轨迹数据。此时记录的数据包括:消息存储的Topic、消息存储的位置、消息的key和tags。

然后,消息被Consumer消费时,Consumer也会上报一些轨迹数据到RMQ_SYS_TRACE_TOPIC里。此时上报的数据包括:Consumer的信息、投递消息的时间、这是第几轮投递消息、消息消费是否成功、消费这条消息的耗时。

最后,如果想要查询消息轨迹,只需要在RocketMQ控制台里查询。其导航栏就有一个消息轨迹,在里面可以创建查询任务。可以根据messageId、message key或者Topic来查询。查询任务执行完毕后,就可以看到消息轨迹的界面了。在消息轨迹的界面里就会展示出Producer、Broker、Consumer上报的轨迹数据了。

3.如何处理RocketMQ的百万消息积压问题

(1)产生消息积压问题的案例背景

(2)直接丢弃消息来解决消息积压问题

(3)在旧Topic上扩容消费者来解决消息积压问题

(4)通过新Topic扩容消费者来解决消息积压问题

(5)消息积压问题的处理总结

(1)产生消息积压问题的案例背景

曾经有一个系统,它就是由生产者和消费者两部分组成的。生产者负责不停地把消息写入RocketMQ里,然后消费者负责从RocketMQ里消费消息。这个系统运行时是有高峰期和低谷期的,在晚上几个小时的高峰期内,大概会有100多万条消息进入RocketMQ。此外,消费者从RocketMQ里获取到消息后,会依赖NoSQL数据库进行一些业务逻辑的处理。

有一天晚上,消费者依赖的NoSQL数据库挂了,导致消费者没法继续从RocketMQ里消费数据进行处理。然后生产者在晚上几个小时的高峰期内,往RocketMQ写入了100多万条消息,这些消息都被积压了。

处理这种紧急的线上事故,一般有如下几种方案。

(2)直接丢弃消息来解决消息积压问题

如果这些消息是允许丢失的,那么此时可以紧急修改消费者的代码:在代码里对所有获取到的消息直接丢弃,不做任何处理。这样可以迅速让积压在RocketMQ里的百万消息被处理掉,只不过处理方式就是全部丢弃而已。

(3)在旧Topic上扩容消费者来解决消息积压问题

如果这些消息是不允许丢失的,那么可以先等待消费者依赖的NoSQL数据库恢复,恢复后就可以根据线上Topic的MessageQueue数量来决定如何处理。

假设线上Topic有20个MessageQueue,然后只有4个消费者在消费,那么每个消费者会从5个MessageQueue里获取消息。此时如果仅仅依靠4个消费者来消费肯定是会继续积压消息的,毕竟RocketMQ里已经积压了百万消息了。

所以此时可以临时申请16台机器多部署16个消费者实例,然后让20个消费者同时消费。每个消费者消费一个MessageQueue的消息,此时消费的速度会提高5倍,积压的百万消息很快就会被处理完。

但是这里需要考虑消费者依赖的NoSQL数据库必须要能抗住临时增加5倍的读写压力,因为原来只有4个消费者在读写NoSQL,现在临时变成了20个消费者了。当处理完百万积压的消息后,就可以下线多余的16台机器了。

这是最常见的处理百万消息积压的办法。

(4)通过新Topic扩容消费者来解决消息积压问题

如果Topic总共就只有4个MessageQueue,然后只有4个消费者呢?这时就没办法扩容消费者了,因为加再多的消费者,还是只有4个MessageQueue,没法降低原来消费者的消费压力了。

所以此时需要临时修改那4个消费者的代码,让它们获取到消息后不依赖NoSQL,直接把消息写入一个新的Topic,这时候的速度是很快的,因为仅仅是读写RocketMQ而已。然后新的Topic会有20个MessageQueue,于是部署20台临时增加的消费者去消费新的Topic,消费新的Topic时才依赖NoSQL。通过将积压的消息转移到一个新的Topic,来解决无法扩容消费者的问题。

(5)消息积压问题的处理总结

如果MessageQueue比较多,可以直接扩容消费者,那么就直接临时增加消费者实例来扩容消费者。

如果MessageQueue比较少,不能直接扩容消费者,那么就把积压在原Topic的消息写入到新Topic。在消费新Topic的消息时,临时部署足够多的消费者实例,来实现间接扩容消费者。

4.针对RocketMQ集群崩溃的金融级高可用方案

金融级的系统如果依赖了RocketMQ集群,那么应该如何设计RocketMQ集群崩溃时的高可用方案?

通常会在发送消息到RocketMQ的系统中设计高可用的降级方案,这个降级方案的思路如下:

在发送消息到RocketMQ的代码里通过try catch捕获异常,如果发现异常就进行重试。如果连续重试3次还是失败,则说明RocketMQ集群可能彻底崩溃了。此时需要把这条重要的消息进行持久化:可以是数据库、本地磁盘文件、NoSQL存储。之后需要不停地尝试发送消息到RocketMQ,一旦发现RocketMQ集群恢复,则通过后台线程把之前持久化存储的消息查询出来,然后按顺序发送到RocketMQ,这样才能保证消息不会因为RocketMQ集群彻底崩溃而丢失。

注意:对消息进行持久化的时候要保证它的顺序。

只要使用这个方案,哪怕RocketMQ集群突然崩溃了,系统也不会丢失消息。这种高可用的方案设计,对于一些和金钱相关的金融系统、广告系统来说,是非常有必要的。

5.为RocketMQ增加消息限流功能保证其高可用

为什么要给RocketMQ增加限流功能保证其高可用性?因为限流功能可以对RocketMQ提供保护,避免因为Bug等原因导致短时间往RocketMQ写入大量数据而出现故障。

比如下面的代码,因为某些原因导致在while循环中向RocketMQ发消息。如果系统是部署在10多台机器上的,那么可能出现10多台机器都频繁往RocketMQ写消息,瞬间导致RocketMQ集群的TPS飙升,压垮RocketMQ集群。

try {
//业务代码
producer.send(message);
} catch (Exception e) {
while (true) {
producer.send(message);
}
}

所以针对这种情况,一般会改造RocketMQ的源码。在Broker接收消息时,引入限流机制。只允许一秒内写入多少条消息,避免因为一些异常情况,导致RocketMQ集群挂掉。

6.从Kafka迁移到RocketMQ的双写双读方案

假设系统原来使用的MQ是Kafka,现在要从Kafka迁移到RocketMQ,那么这个迁移过程应该怎么做?

首先要做到双写,也就是在所有的Producer系统中,同时往Kafka和RocketMQ写入消息。一般会让双写持续1周左右,因为MQ里面数据也就最多保留一周。当双写持续一周后,Kafka和RocketMQ里的数据基本一模一样了。

但光是双写还不够,还需要同时进行双读。在双写的同时,所有Consumer消费者都要同时从Kafka和RocketMQ里获取消息,并且用一模一样的逻辑进行处理。只不过从Kafka里获取到的消息还是执行核心的逻辑进行处理,落入数据库或者其他存储。而从RocketMQ里获取到的消息,虽然也用同样逻辑进行处理,但不会把处理结果落入数据库或其他存储。

Consumer消费消息时,需要统计每天从Kafka和RocketMQ读取和处理的消息量,以及记录对应的消息处理结果到某个临时存储中。这样一段时间后,就可以对比从Kafka和RocketMQ读取和处理的消息量是否一致、处理的消息结果是否一致。如果是,那么就可以进行正式切换了。

基本上对于类似中间件的迁移,都会采取这种双写双读的方案。双写一段时间后,再观察结果是否都一致。如果是,那么再进行切换。

RocketMQ实战—6.生产优化及运维方案的更多相关文章

  1. Linux实战教学笔记25:自动化运维工具之ansible (一)

    第二十五节 ansible之文件的批量分发 标签(空格分隔): Linux实战教学笔记-陈思齐 ---本教学笔记是本人学习和工作生涯中的摘记整理而成,此为初稿(尚有诸多不完善之处),为原创作品,允许转 ...

  2. 项目实战10.1—企业级自动化运维工具应用实战-ansible

    实战环境: 公司计划在年底做一次大型市场促销活动,全面冲刺下交易额,为明年的上市做准备.公司要求各业务组对年底大促做准备,运维部要求所有业务容量进行三倍的扩容,并搭建出多套环境可以共开发和测试人员做测 ...

  3. mysql数据库运维方案

    数据库不仅仅是dba的工作,每一个测试人员也应该懂得基本的数据运维操作,因为数据库是数据承载的地方并且是系统中非常重要的一部分,所以我们也需要熟练的对数据库进行基本维护. 01.常用备份恢复命令 第1 ...

  4. linux 优化&安全运维&黑客攻防

    优化: 可删除用户:adm,lp,sync,shutdown,halt,news,uucp,operator,games,gopher.   :userdel games 可删除组:adm,lp,ne ...

  5. RocketMQ实战:生产环境中,autoCreateTopicEnable为什么不能设置为true

    1.现象 很多网友会问,为什么明明集群中有多台Broker服务器,autoCreateTopicEnable设置为true,表示开启Topic自动创建,但新创建的Topic的路由信息只包含在其中一台B ...

  6. 前后端分离+本地服务实时刷新+缓存管理+接口proxy+静态资源增量更新+各种性能优化+上线运维发布——gulp工作流搭建

    技巧集:http://www.gulpjs.com.cn/docs/recipes/ 其实无非就是利用各种gulp插件.node脚本对项目文件做各种IO操作,只是备忘,需要的话,还是自己重新写最合适. ...

  7. Linux运维企业架构实战系列

    Linux运维企业架构项目实战系列 项目实战1-LNMP的搭建.nginx的ssl加密.权限控制的实现 项目实战2-LVS.nginx实现负载均衡系列 2.1 项目实战2.1-实现基于LVS负载均衡集 ...

  8. Linux运维企业架构项目实战系列

    Linux运维企业架构项目实战系列 项目实战1—LNMP的搭建.nginx的ssl加密.权限控制的实现 项目实战2—LVS.nginx实现负载均衡系列2.1 项目实战2.1—实现基于LVS负载均衡集群 ...

  9. Ligg.WinOa-000: Windows运维自动化编程实战--前言

        本开源项目Ligg.WinOa是一个基于Ligg.EasyWinApp的Windows运维自动化应用.通过Ligg.EasyWinForm生成2个功能界面:管理员工具箱和用户工具箱:通过Lig ...

  10. Go语言Golang DevOps运维开发实战

    Go语言Golang DevOps运维开发实战 提高运维意识.从下到上,从上到下的工作都要做好,对上运维工作的价值和含金量可以得到认可,对下我们的工作能够提高效率解放运维.运维意识是很重要,并不是你技 ...

随机推荐

  1. ZCMU-1153

    思路 一个感觉是规律问题的数学问题 因为输入的是n所以要的出有关n的关系或者关系 有关排序,所以可以从位次入手,设双胞胎前一个位置在ai,后一个在bi. Sum(bi-ai)=(2+3+4+5+6+. ...

  2. 2024 盘古石数据取证 服务器部分wp

    1. 分析内部IM服务器检材,在搭建的内部即时通讯平台中,客户端与服务器的通讯端口是:[答案格式:8888][★☆☆☆☆] 8065 2. 分析内部IM服务器检材,该内部IM平台使用的数据库版本是: ...

  3. 下列哪个选项是对 WebSocket 的正确描述?

    A.  一种扩展 HTTP 的协议,通信消息以 XML 格式描述. B.  使用 http或https作为URI连接的前缀,并使用与HTTP和HTTPS相同的端口号进行通信. C.  它是一种双向通信 ...

  4. QEMU固件模拟技术-stm32仿真分析及IRQ仿真实践

    文章首发于 https://forum.butian.net/share/124 概述 上一篇文件介绍了luaqemu的实现,也提到luaqemu并没有对中断相关api进行封装,本节主要基于stm32 ...

  5. arbitrum 资产桥合约

    资产桥的作用 Rollup 的主要流程中,实际上不包含资产桥,也就是说即使没有资产桥,L2依然能正常运行但是此时L1与L2在数据上是完全独立的两条链,L1不理解L2上的数据(L1只保存L2压缩后的数据 ...

  6. 中电金信智能视觉分析系统,以AI技术助力企业升级

    ​ 基于行业需求与业务痛点,中电金信推出了智能视觉分析系统.该系统是集视频接入.视频识别与分析.AI算法管理.异常报警等为一体,可提供视频安全监管标准的场景应用方案以及二次开发能力的通用智能视觉分析系 ...

  7. 【C#】【报错解决】找不到请求的Net Framework Data ProVider。可能没有安装。

    如题报错截图如上,解决方法如下 第一步:找到[引用]中的MySql.Data中的版本号 第二步,在Web.config中添加如下配置 <system.data> <DbProvide ...

  8. UML之类与类图

    在所有项目中,类都是最常见的UML模型元素(当然,不可否认,很多项目还没画出类图就直接进入编码实现的阶段了).类是UML模型与具体实现代码之间的桥梁,随着对UML建模的深入了解,我们也会发现,类(确切 ...

  9. NVM及NODE开发环境搭建

    NVM及NODE开发环境搭建 1. 安装NVM 1.1 下载安装包 下载地址 1.2 安装 双击安装包,一路下一步即可.安装完成后在终端输入nvm version,能查到版本号说明安装成功了. 2. ...

  10. 字节二面:你怎么理解信道是golang中的顶级公民

    1. 信道是golang中的顶级公民 goroutine结合信道channel是golang中实现并发编程的标配. 信道给出了一种不同于传统共享内存并发通信的新思路,以一种通道复制的思想解耦了并发编程 ...