【rabbitmq】rabbitmq集群环境搭建
安装rabbitmq-server
总共有3台虚拟机,都安装有rabbitmq服务,安装过程可参考:
【rabbitmq】Centos7 下安装rabbitmq
创建用户和vhost
说明: 此步骤不是必须的,文章后面的用户和vhost可能与此步骤创建的不一致,此处仅仅是创建的示例。
rabbitmqctl add_vhost /my_vhost
rabbitmqctl add_user admin admin
rabbitmqctl set_user_tags admin administrator #管理员权限
# rabbitmqctl set_permissions [-p vhost] [user] [permission ⇒ (modify) (write) (read)]
rabbitmqctl set_permissions -p /my_vhost admin ".*" ".*" ".*"
rabbitmqctl list_permissions -p /my_vhost
机器列表
| 机器 | ip | /etc/hostname | /etc/hostname | 说明 |
|---|---|---|---|---|
| node1 | 192.168.35.135 | rmq-node1 | rmq-node1 | 作为首节点 |
| node2 | 192.168.35.136 | rmq-node2 | rmq-node2 | 加入node1集群 |
| node3 | 192.168.35.137 | rmq-node3 | rmq-node3 | 加入node1集群 |
注意:修改/etc/hostname为上述表格中的值
# node1执行
[root@rmq-node1 ~]# rabbitmqctl status
Status of node 'rabbit@rmq-node1'
...
# node2执行
[root@rmq-node2 ~]# rabbitmqctl status
Status of node 'rabbit@rmq-node2'
...
# node3执行
[root@rmq-node3 ~]# rabbitmqctl status
Status of node 'rabbit@rmq-node3'
...
搭建集群环境
保证magic cookie相同
rabbitmq使用erlang编写,erlang天然具有分布式特性,为了是各erlang节点能够互相通信,需要保证 magic cookie相同;
将node1中的cookie复制到node2和node3
# node2和 node3上分别执行
scp root@192.168.35.135:/var/lib/rabbitmq/.erlang.cookie /var/lib/rabbitmq/.erlang.cookie
现在3个node上的.erlang.cookie都是相同的;
注意点:
- 需要保证
.erlang.cookie的默认权限为:400; - 所有用户和组为
rabbitmq
chmod 400 /var/lib/rabbitmq/.erlang.cookie
chown rabbitmq:rabbitmq /var/lib/rabbitmq/.erlang.cookie
修改hosts文件
# 3个节点都要修改 hosts文件
vi /etc/hosts
# 添加
192.168.35.135 rmq-node1
192.168.35.136 rmq-node2
192.168.35.137 rmq-node3
在每个节点上,都保证能ping通
ping rmq-node1
ping rmq-node2
ping rmq-node3
将node2节点和node3节点加入集群
node2和node3加入集群前,node1的状态
[root@rmq-node1 ~]# rabbitmqctl cluster_status
Cluster status of node 'rabbit@rmq-node1'
[{nodes,[{disc,['rabbit@rmq-node1']}]}, //此时只有一个节点
{running_nodes,['rabbit@rmq-node1']},
{cluster_name,<<"rabbit@rmq-node1">>},
{partitions,[]},
{alarms,[{'rabbit@rmq-node1',[]}]}]
说明:上面的rabbit@rmq-node1就是后面node2和node3要加入的首节点信息
node2作为disk节点
未加入之前
[root@rmq-node2 ~]# rabbitmqctl cluster_status
Cluster status of node 'rabbit@rmq-node2'
[{nodes,[{disc,['rabbit@rmq-node2']}]},
{running_nodes,['rabbit@rmq-node2']},
{cluster_name,<<"rabbit@rmq-node2">>},
{partitions,[]},
{alarms,[{'rabbit@rmq-node2',[]}]}]
加入集群
# stop application and reset
rabbitmqctl stop_app
rabbitmqctl reset
#join in cluster (specify only hostname, not with FQDN)
rabbitmqctl join_cluster rabbit@rmq-node1
# start application
rabbitmqctl start_app
# show status
rabbitmqctl cluster_status
查看状态:
[root@rmq-node1 ~]# rabbitmqctl cluster_status
Cluster status of node 'rabbit@rmq-node1'
[{nodes,[{disc,['rabbit@rmq-node1','rabbit@rmq-node2']}]},
{running_nodes,['rabbit@rmq-node2','rabbit@rmq-node1']},
{cluster_name,<<"rabbit@rmq-node1">>},
{partitions,[]},
{alarms,[{'rabbit@rmq-node2',[]},{'rabbit@rmq-node1',[]}]}]
[root@rmq-node2 ~]# rabbitmqctl cluster_status
Cluster status of node 'rabbit@rmq-node2'
[{nodes,[{disc,['rabbit@rmq-node1','rabbit@rmq-node2']}]},
{running_nodes,['rabbit@rmq-node1','rabbit@rmq-node2']},
{cluster_name,<<"rabbit@rmq-node1">>},
{partitions,[]},
{alarms,[{'rabbit@rmq-node1',[]},{'rabbit@rmq-node2',[]}]}]
node3作为ram节点
未加入之前
[root@rmq-node3 ~]# rabbitmqctl cluster_status
Cluster status of node 'rabbit@rmq-node3'
[{nodes,[{disc,['rabbit@rmq-node3']}]},
{running_nodes,['rabbit@rmq-node3']},
{cluster_name,<<"rabbit@rmq-node3">>},
{partitions,[]},
{alarms,[{'rabbit@rmq-node3',[]}]}]
加入集群
# stop application and reset
rabbitmqctl stop_app
rabbitmqctl reset
#join in cluster (specify only hostname, not with FQDN)
rabbitmqctl join_cluster rabbit@rmq-node1 --ram
# start application
rabbitmqctl start_app
# show status
rabbitmqctl cluster_status
加入集群后的状态
[root@rmq-node1 ~]# rabbitmqctl cluster_status
Cluster status of node 'rabbit@rmq-node1'
[{nodes,[{disc,['rabbit@rmq-node1','rabbit@rmq-node2']},
{ram,['rabbit@rmq-node3']}]},
{running_nodes,['rabbit@rmq-node3','rabbit@rmq-node2','rabbit@rmq-node1']},
{cluster_name,<<"rabbit@rmq-node1">>},
{partitions,[]},
{alarms,[{'rabbit@rmq-node3',[]},
{'rabbit@rmq-node2',[]},
{'rabbit@rmq-node1',[]}]}]
-------------------
[root@rmq-node2 ~]# rabbitmqctl cluster_status
Cluster status of node 'rabbit@rmq-node2'
[{nodes,[{disc,['rabbit@rmq-node1','rabbit@rmq-node2']},
{ram,['rabbit@rmq-node3']}]},
{running_nodes,['rabbit@rmq-node3','rabbit@rmq-node1','rabbit@rmq-node2']},
{cluster_name,<<"rabbit@rmq-node1">>},
{partitions,[]},
{alarms,[{'rabbit@rmq-node3',[]},
{'rabbit@rmq-node1',[]},
{'rabbit@rmq-node2',[]}]}]
-----------------------------
[root@rmq-node3 ~]# rabbitmqctl cluster_status
Cluster status of node 'rabbit@rmq-node3'
[{nodes,[{disc,['rabbit@rmq-node2','rabbit@rmq-node1']},
{ram,['rabbit@rmq-node3']}]},
{running_nodes,['rabbit@rmq-node1','rabbit@rmq-node2','rabbit@rmq-node3']},
{cluster_name,<<"rabbit@rmq-node1">>},
{partitions,[]},
{alarms,[{'rabbit@rmq-node1',[]},
{'rabbit@rmq-node2',[]},
{'rabbit@rmq-node3',[]}]}]
登录界面查看集群状态
http://192.168.35.135:15672/#/
相关概念
epmd
erlang port monitor deamon: 负责集群中节点ip和port的监控;
集群间node的发现都是通过该后台程序来完成的;
Mnesia
这是erlang的分布式数据库,用于存储queue、exchange、binding等信息;
网络分区(network partitions)
可参考: https://www.cnblogs.com/ssslinppp/p/9470962.html
其他运维操作
日志文件
/var/log/rabbitmq/xxxx.log
将某个node从集群中删除
rabbitmqctl forget_cluster_node rabbit@node-1 //这个属于硬删除
将node1节点删除后,若是重新加入该集群,可能报错,如:
inconsistent_cluster,"Node 'rabbit@node-1' thinks it's clustered with node 'rabbit@node-3', but 'rabbit@node-3' disagrees"}}
原因:
从node-1的启动报错来看,像是集群信息残留;
在node-2上操作将node-1移除集群,node-1的rabbitmq服务已经down掉了,所以数据库无法同步更新,记载的仍是旧的集群信息(数据库记录里自身节点仍属于集群)
而node-2和node-3的数据库记录已经更新(数据库信息里面集群不包含node-1节点了)
解决方式
删除node-1的数据库记录
rm -rf /var/lib/rabbitmq/mnesia/*
出现的错误
1. 启动失败:rabbitmq-server.service: control process exited, code=exited status=75
journalctl -xe
# 错误信息如下
Aug 08 19:25:44 localhost.localdomain systemd[1]: rabbitmq-server.service: control process exited, code=exited status=75
Aug 08 19:25:44 localhost.localdomain systemd[1]: Failed to start RabbitMQ broker.
-- Subject: Unit rabbitmq-server.service has failed
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
--
-- Unit rabbitmq-server.service has failed.
--
-- The result is failed.
Aug 08 19:25:44 localhost.localdomain systemd[1]: Unit rabbitmq-server.service entered failed state.
Aug 08 19:25:44 localhost.localdomain systemd[1]: rabbitmq-server.service failed.
Aug 08 19:25:44 localhost.localdomain polkitd[902]: Unregistered Authentication Agent for unix-process:3504:33878 (system bus name :1.17, object path /org/freedesktop/PolicyKit1/Aut
[root@localhost mnesia]# journalctl -xe
解决方式:
chown rabbitmq:rabbitmq /var/lib/rabbitmq/.erlang.cookie
rm -rf /var/lib/rabbitmq/mnesia/*
【rabbitmq】rabbitmq集群环境搭建的更多相关文章
- Kafaka高可用集群环境搭建
zk集群环境搭建:https://www.cnblogs.com/toov5/p/9897868.html 三台主机每台的Java版本1.8 下面kafka集群的搭建: 3台虚拟机均进行以下操作: ...
- Hadoop+Spark:集群环境搭建
环境准备: 在虚拟机下,大家三台Linux ubuntu 14.04 server x64 系统(下载地址:http://releases.ubuntu.com/14.04.2/ubuntu-14.0 ...
- 项目进阶 之 集群环境搭建(三)多管理节点MySQL集群
上次的博文项目进阶 之 集群环境搭建(二)MySQL集群中,我们搭建了一个基础的MySQL集群,这篇博客咱们继续讲解MySQL集群的相关内容,同时针对上一篇遗留的问题提出一个解决方案. 1.单管理节点 ...
- Spark 1.6.1分布式集群环境搭建
一.软件准备 scala-2.11.8.tgz spark-1.6.1-bin-hadoop2.6.tgz 二.Scala 安装 1.master 机器 (1)下载 scala-2.11.8.tgz, ...
- hadoop集群环境搭建之zookeeper集群的安装部署
关于hadoop集群搭建有一些准备工作要做,具体请参照hadoop集群环境搭建准备工作 (我成功的按照这个步骤部署成功了,经实际验证,该方法可行) 一.安装zookeeper 1 将zookeeper ...
- hadoop集群环境搭建之安装配置hadoop集群
在安装hadoop集群之前,需要先进行zookeeper的安装,请参照hadoop集群环境搭建之zookeeper集群的安装部署 1 将hadoop安装包解压到 /itcast/ (如果没有这个目录 ...
- hadoop集群环境搭建准备工作
一定要注意hadoop和linux系统的位数一定要相同,就是说如果hadoop是32位的,linux系统也一定要安装32位的. 准备工作: 1 首先在VMware中建立6台虚拟机(配置默认即可).这是 ...
- Ningx集群环境搭建
Ningx集群环境搭建 Nginx是什么? Nginx ("engine x") 是⼀个⾼性能的 HTTP 和 反向代理 服务器,也是⼀个 IMAP/ POP3/SMTP 代理服务 ...
- hadoop2集群环境搭建
在查询了很多资料以后,发现国内外没有一篇关于hadoop2集群环境搭建的详细步骤的文章. 所以,我想把我知道的分享给大家,方便大家交流. 以下是本文的大纲: 1. 在windows7 下面安装虚拟机2 ...
- [转]ZooKeeper 集群环境搭建 (本机3个节点)
ZooKeeper 集群环境搭建 (本机3个节点) 是一个简单的分布式同步数据库(或者是小文件系统) ------------------------------------------------- ...
随机推荐
- Kali WSL折腾笔记-在Windows10上使用Kali子系统
前言 Windows10在发布WSL(Windows Subsystem for Linux)后经过多次更新,现在使用体验已经比较良好,下面简单记录一下我在安装Kali WSL中遇到的种种问题,为各位 ...
- 学习小片段——thymeleaf入门
1: 概述 thymeleaf是一个跟 Velocity.FreeMarker 类似的模板引擎,和以前学的jsp相近,但性能上无疑是比jsp好. 参考文档官方文档:https://www.thymel ...
- FreeCAD_DWG文件格式支持
FreeCAD 是一款开源的三维模型制作软件,体积小.功能强大,可结合软件包划分网格进行有限元分析,上手速度极快.但也存在问题,即软件自身不支持DWG文件格式.本文介绍 FreeCAD 支持 DWG格 ...
- c++ 第二章知识梳理
2.1.c++语言概括 2.1.1)c++的产生 一个更好的c,由c演变而来 2.1.2)c++的特点 一是尽量兼容c,二是支持面向对象的方法.更安全,且简洁高效. 2.1.3~2.1.5 多数和C相 ...
- Flyweight 享元(结构型)
一:描述:(该模式实际应用较少) Flyweight 享元模式是对大量细粒度的元素进行共享和重用.减少对象的创建减轻内存: 注和单例模式不同的是:享元模式的各个对象佣有各自的行为并可实例化,单例模式的 ...
- 转 深入理解net core中的依赖注入、Singleton、Scoped、Transient
出处:http://www.mamicode.com/info-detail-2200461.html 一.什么是依赖注入(Denpendency Injection) 这也是个老身常谈的问题,到底依 ...
- AS 400 常用命令
转自:http://blog.chinaunix.net/uid-22375044-id-3049793.html 一.命令技巧 命令构成: CRT* (Creat) 创建 WRK* (Work Wi ...
- lua中查询表元素规则(__index)解析
阅读文章后用一个流程图来总结__index的规则用法 总结一下Lua查找一个表元素时的规则,其实就是如下3个步骤: 1.在表中查找,如果找到,返回该元素,找不到则继续 2.判断该表是否有元表,如果没有 ...
- java方法 throws exception 事务回滚机制
使用spring难免要用到spring的事务管理,要用事务管理又会很自然的选择声明式的事务管理,在spring的文档中说道,spring声明式事务管理默认对非检查型异常和运行时异常进行事务回滚,而对检 ...
- 从CSS到houdini
0. 前言 平时写CSS,感觉有很多多余的代码或者不好实现的方法,于是有了预处理器的解决方案,主旨是write less &do more.其实原生css中,用上css变量也不差,加上bem命 ...