nginx+keepalived+consul 实现高可用集群
继 负载均衡 之 nginx+consul+consul template,我这次将使用2台虚拟机,来做一个简单的双机负载均衡试验。
试验目标:
1. 当参加负载均衡的子节点服务,有任何其中一个或多个停止工作,总服务还能正常工作;
2. 当两台机子,其中有一台关机了,总服务还能正常工作;
3. 其中一台关机之后,重启,能自动加入负载均衡;
3. 当两台都关机了,总服务停止工作(如果还能工作,那就是见鬼了!)
试验准备:
2台虚拟机:
192.168.40.128 (ubuntu 16.04)
192.168.40.129 (ubuntu 16.04)
试验开始如下:
1. 两台机子分别安装keepalived
sudo apt-get install libssl-dev
sudo apt-get install openssl
sudo apt-get install libpopt-dev
sudo apt-get install keepalived
192.168.40.128 (ubuntu 16.04)配置为备用机:
sudo vim /etc/keepalived/keepalived.conf
内容:
vrrp_instance VI_1 {
state BACKUP
interface ens33 #ifconfig确定
virtual_router_id #路由器标识,MASTER和BACKUP必须是一致的
priority #定义优先级,数字越大,优先级越高,在同一个vrrp_instance下,MASTER的优先级必须大于BACKUP的优先级。这样MASTER故障恢复后,就可以将VIP资源再次抢回来
advert_int
authentication {
auth_type PASS
auth_pass
}
virtual_ipaddress {
192.168.40.100 # 虚拟ip
}
}
192.168.40.129 (ubuntu 16.04)配置为主机:
sudo vim /etc/keepalived/keepalived.conf
内容:
vrrp_instance VI_1 {
state MASTER
interface ens33 #ifconfig确定
virtual_router_id 51 #路由器标识,MASTER和BACKUP必须是一致的
priority 100 #定义优先级,数字越大,优先级越高,在同一个vrrp_instance下,MASTER的优先级必须大于BACKUP的优先级。这样MASTER故障恢复后,就可以将VIP资源再次抢回来
advert_int 1
authentication {
auth_type PASS
auth_pass 123456
}
virtual_ipaddress {
192.168.40.100 # 虚拟ip
}
}
两台机子共用一个虚拟IP 192.168.40.100, 在生产环境中应该是一个域名
分别开启 keepalived
sudo service keepalived start
查看
sudo servicv keepalived status

2. 两台机子都安装nginx,这些我就不详说了
3. 两台机子都安装consul,以及 consul-template, 也不详说,具体看负载均衡 之 nginx+consul+consul template
4. 两台机子分别配置3个试验站点:
server {
listen ;
root /www/static-web/site1;
index index.html;
}
server {
listen ;
root /www/static-web/site2;
index index.html;
}
server {
listen ;
root /www/static-web/site3;
index index.html;
}
html的内容随便写点,能区别就好
试访问一下:
192.168.40.128:8010
192.168.40.128:8020
192.168.40.128:8030
192.168.40.129:8010
192.168.40.129:8020
192.168.40.129:8030

这些我是将一个站点,放在两台机子,每台机子布署3个站点,一共6个子节点服务来做负载均衡
5. 分别配置服务注册文件:
{
"encrypt": "k4NEAxg594DeOEjIs/FYBw==",
"services": [
{
"id": "api4",
"name": "MasterService",
"tags": [ "ApiService" ],
"address": "192.168.40.129",
"port": ,
"checks": [
{
"id": "ApiServiceD_Check",
"name": "ApiServiceD_Check",
"http": "http://192.168.40.129:8010",
"interval": "10s",
"tls_skip_verify": false,
"method": "GET",
"timeout": "1s"
}
]
},
{
"id": "api5",
"name": "MasterService",
"tags": [ "ApiService" ],
"address": "192.168.40.129",
"port": ,
"checks": [
{
"id": "ApiServiceE_Check",
"name": "ApiServiceE_Check",
"http": "http://192.168.40.129:8020",
"interval": "10s",
"tls_skip_verify": false,
"method": "GET",
"timeout": "1s"
}
]
},
{
"id": "api6",
"name": "MasterService",
"tags": [ "ApiService" ],
"address": "192.168.40.129",
"port": ,
"checks": [
{
"id": "ApiServiceF_Check",
"name": "ApiServiceF_Check",
"http": "http://192.168.40.129:8030",
"interval": "10s",
"tls_skip_verify": false,
"method": "GET",
"timeout": "1s"
}
]
}
]
}
配置consul-template模板:
upstream masterservice {
{{range service "MasterService"}}
server {{.Address}}:{{.Port}} max_fails= fail_timeout= weight=;
{{else}}server 127.0.0.1:; # force a {{end}}
}
server {
listen ;
location / {
proxy_pass http://masterservice;
proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection keep-alive;
proxy_set_header Host $http_host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_cache_bypass $http_upgrade;
}
}
6. 192.168.40.128 执行:
consul agent -server -ui -bootstrap-expect=2 -data-dir=/tmp/consul -node=consul-1 -client=0.0.0.0 -bind=192.168.40.128 -datacenter=dc1 -config-dir=/consul/balanceload &
consul-template --consul-addr 192.168.40.128:8500 --template "/consul/template/nginx.ctmpl:/consul/template/vhost.conf:service nginx restart" --log-level=info &
192.168.40.128 执行:
consul agent -server -ui -bootstrap-expect=2 -data-dir=/tmp/consul -node=consul-2 -client=0.0.0.0 -bind=192.168.40.129 -datacenter=dc1 -config-dir=/consul/balanceload -join 192.168.40.128 &
consul-template --consul-addr 192.168.40.129:8500 --template "/consul/template/nginx.ctmpl:/consul/template/vhost.conf:service nginx restart" --log-level=info &
注意consul 服务注册的一些问题

这里存储着consul 主机,远程机的注册密钥和运行快照,因为下次再次启动consul时,之前的配置不会丢失
7. 检查consul 成员
consul members

consul info

可以看到,两台机的consul服务已经形成集群,129这台是follower, 128是leader
8. 现在访问那个虚拟VIP,加上nginx模板配置的8088端口: 192.168.40.100:8088
一次次刷新:
nginx test on 128i am 128:8010
nginx test on 128i am 128:8020
nginx test on 128i am 128:8030
nginx test on 129i am 129:8010
nginx test on 129i am 129:8020
nginx test on 129i am 129:8030
可以看到, 192.168.40.100:8088, 轮询的去访问2台机6个站点
我们也可以看到模板文件生成的结果:
upstream masterservice {
server 192.168.40.128: max_fails= fail_timeout= weight=;
server 192.168.40.128: max_fails= fail_timeout= weight=;
server 192.168.40.128: max_fails= fail_timeout= weight=;
server 192.168.40.129: max_fails= fail_timeout= weight=;
server 192.168.40.129: max_fails= fail_timeout= weight=;
server 192.168.40.129: max_fails= fail_timeout= weight=;
}
server {
listen ;
location / {
proxy_pass http://masterservice;
proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection keep-alive;
proxy_set_header Host $http_host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_cache_bypass $http_upgrade;
}
}
9. 试关掉一个站点 192.168.40.128:8010
192.168.40.100:8088 正常工作,只是轮询时少了 192.168.40.128:8010
模板生成的结果:
upstream masterservice {
server 192.168.40.128: max_fails= fail_timeout= weight=;
server 192.168.40.128: max_fails= fail_timeout= weight=;
server 192.168.40.129: max_fails= fail_timeout= weight=;
server 192.168.40.129: max_fails= fail_timeout= weight=;
server 192.168.40.129: max_fails= fail_timeout= weight=;
}
server {
listen ;
location / {
proxy_pass http://masterservice;
proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection keep-alive;
proxy_set_header Host $http_host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_cache_bypass $http_upgrade;
}
}
10. 把 128 的 consul 服务关掉
129那边得知128的consul 节点离开了,会将自己推选为leader
访问一下http://192.168.40.100:8088/
还是能正常工作
nginx test on 129i am 129:8010
nginx test on 129i am 129:8020
nginx test on 129i am 129:8030
只是再看不到128
11. 把128的consul服务开回来
这时,128和129并不能一起推选出leader。也就是说128并没有加入集群。这时候需要 -rejoin 。表示重新加入集群。重新推选出了leader。
12.把128的机子关机
这时,129那边一直报
找不到128,129也处于候选人状态,这个consul服务挂掉了,也就是说只有2台服务器形成一个consul集群,其中一个意外挂掉了,只留下一个节点,它是无法再推送出leader。活着的那个节点,只能处于候选人状态。
13.做到这里,终于明白 consul官网为何建议一个consul集群,至少要有3个服务节点。
那么使用consul来做双机负载均衡和服务发现,是不行,必须至少要三机。于是我再安装多一个虚拟机。192.168.40.130
安装了跟前两台一样的软件和相关配置。
访问192.168.40.100:8088
可以看到负载均衡的成员多了130

3台机推送了130为leader

暴力地把130给关机了
看看129,128的反应

可以看这里报了很多消息
1. keepalived重新选举 master
2. consul重新选举 leader:consul-1 128那台成了新的老大
3. consul-template 自动更新nginx 配置,并重启
再看看consul members:

130的consul是一个失败状态,这跟离开状态是不一样的,所以consul集群也是会不放弃地继续呼叫130 回家。
这时访问192.168.40.100:8088,会发现负载均衡的成员,只有6个。
14. 让130回家
直接把130那台机子开机

consul又恢复了3个节点,leader依然是 consul-1
总结:至此,高可用集群搭建的研究告一段落了。中间踩地了不少坑,也有不少的疑惑,总之自己走过一遍是必须的。
如此,我们的网站服务器是可以无限扩展的。
nginx+keepalived+consul 实现高可用集群的更多相关文章
- 使用Keepalived构建LVS高可用集群
LVS的DR模型配置+Keepalive部署 介绍 下图为DR模型的通信过程,图中的IP不要被扑结构中的IP迷惑,图里只是为了说明DR的通信原理,应用到本例中的拓扑上其工作原理不变. 拓扑结构 服务器 ...
- 【转】Keepalived+Tengine实现高可用集群
原文出处:http://502245466.blog.51cto.com/7559397/1301772 概述 近年来随着Nginx在国内的发展潮流,越来越多的互联网公司使用Nginx:凭Nginx的 ...
- 基于keepalived搭建MySQL高可用集群
MySQL的高可用方案一般有如下几种: keepalived+双主,MHA,MMM,Heartbeat+DRBD,PXC,Galera Cluster 比较常用的是keepalived+双主,MHA和 ...
- 003.Keepalived搭建LVS高可用集群
一 基础环境 1.1 IP规划 OS:CentOS 6.8 64位 节点类型 IP规划 主机名 类型 主 Director Server eth0:172.24.8.10 DR1 公共IP eth1: ...
- 使用Keepalived实现linux高可用集群
安装 apt install libipset-dev keepalived -y 创建账户 useradd -s/usr/sbin/nologin -M -g root keepalived_scr ...
- keepalived + lvs 网站高可用集群
一 ,四台服务器 master 端 : 192.168.1.3 backup 端: 192.168.1.4 REserver1 端 : 192.168.1.5 REserver2 端: 192.168 ...
- 实战| Nginx+keepalived 实现高可用集群
一个执着于技术的公众号 前言 今天通过两个实战案例,带大家理解Nginx+keepalived 如何实现高可用集群,在学习新知识之前您可以选择性复习之前的知识点: 给小白的 Nginx 10分钟入门指 ...
- 集群介绍 keepalived介绍 用keepalived配置高可用集群
集群介绍 • 根据功能划分为两大类:高可用和负载均衡 • 高可用集群通常为两台服务器,一台工作,另外一台作为冗余,当提供服务的机器宕机,冗余将接替继续提供服务 • 实现高可用的开源软件有:heartb ...
- Linux集群介绍、keepalived介绍及配置高可用集群
7月3日任务 18.1 集群介绍18.2 keepalived介绍18.3/18.4/18.5 用keepalived配置高可用集群扩展heartbeat和keepalived比较http://blo ...
随机推荐
- Connection: close和Connection: keep-alive有什么区别?
看到有人问Connection: close和Connection: keep-alive有什么区别?想起以前学习到的一篇文章,今天转载来,大家看看,我也再温故知新下.如果有问题补充的在下面可以扩充下 ...
- bzoj 1707: [Usaco2007 Nov]tanning分配防晒霜【贪心||最大流(?)】
洛谷上能过的最大流bzoj上T了--但是贪心做法明明在洛谷上比最大流要慢啊--如果是最大流的话就是裸题了吧 说一下贪心,就按照防晒霜排序,然后对每一个防晒霜选一头可以使用的且r最小的牛 就,没了. 贪 ...
- P3207 [HNOI2010]物品调度
传送门 完了题目看错了--还以为所有的\(x,y\)都要一样--结果题解都没看懂-- 先考虑如果已经求出了所有的\(pos\)要怎么办,那么我们可以把\(0\)也看做是一个箱子,然后最后每个箱子都在一 ...
- 洛谷 P1074 靶形数独(剪枝)
//人生中第一道蓝题(3.5h) 题目描述 小城和小华都是热爱数学的好学生,最近,他们不约而同地迷上了数独游戏,好胜的他们想用数独来一比高低.但普通的数独对他们来说都过于简单了,于是他们向 Z 博士请 ...
- POJ 3608 旋转卡壳
思路: 旋转卡壳应用 注意点&边 边&边 点&点 三种情况 //By SiriusRen #include <cmath> #include <cstdi ...
- Android 性能优化(25)*性能工具之「Systrace」Analyzing UI Performance with Systrace:用Systrace得到ui性能报告
Analyzing UI Performance with Systrace In this document Overview 简介 Generating a Trace 生成Systrace文件 ...
- 牛客网-3 网易编程题(1拓扑&2二叉树的公共最近祖先&3快排找第K大数)
1. 小明陪小红去看钻石,他们从一堆钻石中随机抽取两颗并比较她们的重量.这些钻石的重量各不相同.在他们们比较了一段时间后,它们看中了两颗钻石g1和g2.现在请你根据之前比较的信息判断这两颗钻石的哪颗更 ...
- opencv总结
2018-02-2623:59:02 唉,这软件我很烦躁,今天又搞了好几遍,出错提示的时候总是出问题! 而且,无论什么错误,都是提示一堆乱码! 定义ROI区域有两种方法,第一种是使用cv:Rect.顾 ...
- python模块中的__all__属性
转自:http://blog.csdn.net/sxingming/article/details/52903377 python模块中的__all__属性,可用于模块导入时限制,如:from mod ...
- C++(extern关键字的理解和作用深入)
extern关键字的理解和作用深入 extern是一个关键字,它告诉编译器存在着一个变量或者一个函数,如果在当前编译语句的前面中没有找到相应的变量或者函数, 也会在当前文件的后面或者其它文件中定义 引 ...