author:JevonWei

版权声明:原创作品


配置后端主机的Health Check

环境

Varnish      192.168.198.139
图片服务端 192.168.198.120
程序服务端 192.168.198.128

程序服务器

[root@danran ~]# vim /var/www/html/.healthchk.html
ok

图片服务器

[root@centos6 ~]# vim /data/web/image2/.healthchk.html
oK
[root@centos6 ~]# vim /data/web/images/.healthchk.html
ok

Vernish

[root@danran ~]# vim /etc/varnish/default.vcl
导入directors模块
import directors; 定义健康检查的机制,自定义为healthchk
probe healthchk {
.url = "/.healthchk.html";\\检查的url为.healthchk.html
.timeout = 2s; \\超时时间为2s
.interval = 2s;\\检查间隔时间
.window = 8; \\基于最近8次的检查判断
.threshold = 5; \\检查最近8次若有5次成功即为健康状态
} 定义一个app程序后端服务器
backend appsrv1 {
.host = "192.168.198.128";
.port = "80";
.probe = healthchk; \\调用健康检查的机制
} 定义两个图片服务端
backend imgsrv1 {
.host = "192.168.198.120";
.port = "80";
.probe = healthchk; \\调用健康检查的机制
}
backend imgsrv2 {
.host = "192.168.198.120";
.port = "8080";
.probe = healthchk; \\调用健康检查的机制
} 定义一个图片服务器组imgsrvs,并将imgsrv1和imgsrv2两个后端图片服务器添加进imgsrvs组中
sub vcl_init {
new imgsrvs = directors.round_robin(); \\指定调度算法为轮询
imgsrvs.add_backend(imgsrv1);
imgsrvs.add_backend(imgsrv2);
} sub vcl_recv {
if (req.url ~ "(?i)\.(jpg|jpeg|png|gif|svg|txt)$") {
set req.backend_hint = imgsrvs.backend();
} else {
set req.backend_hint = appsrv1;
}
}
[root@danran ~]# varnish_reload_vcl \\重新加载/etc/varnish/default.vcl参数文件

Varnish查看后端主机的健康状态

[root@danran ~]# varnishadm -S /etc/varnish/secret -T 127.0.0.1:6082
backend.list
200
Backend name Refs Admin Probe
appsrv1(192.168.198.128,,80) 7 probe Healthy 8/8 \\Healthy为健康状态,检测了8次,8次成功
imgsrv1(192.168.198.120,,80) 7 probe Healthy 8/8
imgsrv2(192.168.198.120,,8080) 6 probe Healthy 8/8

图片服务端故障了一台服务器

添加一条防火墙规则,禁止8080端口的连接,即等同于imgsrv2服务器的故障
[root@centos6 ~]# iptables -A INPUT -p tcp --dport 8080 -j REJECT

Varnish查看后端主机的健康状态

[root@danran ~]# varnishadm -S /etc/varnish/secret -T 127.0.0.1:6082
backend.list
200
Backend name Refs Admin Probe
appsrv1(192.168.198.128,,80) 7 probe Healthy 8/8
imgsrv1(192.168.198.120,,80) 7 probe Healthy 8/8
imgsrv2(192.168.198.120,,8080) 6 probe Sick 0/8 \\检查80次,0次成功,即imgsrv2服务端故障,从而imgsrv2不可用 修复使imgsrv2上线后,imgsrv2恢复正常状态
[root@danran ~]# varnishadm -S /etc/varnish/secret -T 127.0.0.1:6082
backend.list
200
Backend name Refs Admin Probe
appsrv1(192.168.198.128,,80) 7 probe Healthy 8/8
imgsrv1(192.168.198.120,,80) 7 probe Healthy 8/8
imgsrv2(192.168.198.120,,8080) 6 probe Sick 4/8 \\Sick为失败状态
backend.list
200
Backend name Refs Admin Probe
appsrv1(192.168.198.128,,80) 7 probe Healthy 8/8
imgsrv1(192.168.198.120,,80) 7 probe Healthy 8/8
imgsrv2(192.168.198.120,,8080) 6 probe Healthy 5/8 \\当检查次数大于等于5次时,即表示该服务端可以正常使用

Varnish手动使某后台服务端下线,即修改服务器健康状态为sick

[root@Varnish ~]# varnishadm -S /etc/varnish/secret -T 127.0.0.1:6082
backend.set_health imgsrv1 sick
200 \\将imgsrv1服务器的状态手动修改为sick故障状态 backend.set_healtlist
200
Backend name Refs Admin Probe
appsrv1(192.168.198.128,,80) 7 probe Healthy 8/8
imgsrv1(192.168.198.120,,80) 7 sick Healthy 8/8 \\imgsrv1状态为sick故障状态
imgsrv2(192.168.198.120,,8080) 6 probe Healthy 8/8

将手动修改为sick状态的后台服务器端上线,即将状态修改为health

[root@Varnish ~]# varnishadm -S /etc/varnish/secret -T 127.0.0.1:6082

backend.set_health imgsrv1 healthy
200 \\将imgsrv1服务器的状态手动修改为healthy健康状态,即不管物理后台服务器端是否正常,varnish检测结果都为正常 backend.set_healtlist
200
Backend name Refs Admin Probe
appsrv1(192.168.198.128,,80) 7 probe Healthy 8/8
imgsrv1(192.168.198.120,,80) 7 sick Healthy 8/8 \\imgsrv1状态为sick故障状态
imgsrv2(192.168.198.120,,8080) 6 probe Healthy 8/8 backend.set_healtlist
200
Backend name Refs Admin Probe
appsrv1(192.168.198.128,,80) 7 probe Healthy 8/8
imgsrv1(192.168.198.120,,80) 7 healthy Healthy 8/8
imgsrv2(192.168.198.120,,8080) 6 probe Healthy 8/8

imgsrv1后台服务器端故障,不能正常使用

[root@imgsrv1 ~]# iptables -A INPUT -p tcp --dport 80 -j REJECT

Varnish检测后端服务器的健康状态

[root@Varnish ~]# varnishadm -S /etc/varnish/secret -T 127.0.0.1:6082

backend.list
200
Backend name Refs Admin Probe
appsrv1(192.168.198.128,,80) 7 probe Healthy 8/8
imgsrv1(192.168.198.120,,80) 7 healthy Sick 0/8
imgsrv2(192.168.198.120,,8080) 6 probe Healthy 8/8

将手动修改为sick状态的后台服务器端上线,即将状态修改为health

[root@Varnish ~]# varnishadm -S /etc/varnish/secret -T

backend.set_healtlist
200
Backend name Refs Admin Probe
appsrv1(192.168.198.128,,80) 7 probe Healthy 8/8
imgsrv1(192.168.198.120,,80) 7 sick Healthy 8/8 \\imgsrv1状态为sick故障状态
imgsrv2(192.168.198.120,,8080) 6 probe Healthy 8/8 backend.set_health imgsrv1 auto
200 backend.set_healtlist
200
Backend name Refs Admin Probe
appsrv1(192.168.198.128,,80) 7 probe Healthy 8/8
imgsrv1(192.168.198.120,,80) 7 probe Healthy 8/8
imgsrv2(192.168.198.120,,8080) 6 probe Healthy 8/8

imgsrv1后台服务器端故障,不能正常使用

[root@imgsrv1 ~]# iptables -A INPUT -p tcp --dport 80 -j REJECT

Varnish检测后端服务器的健康状态

[root@Varnish ~]# varnishadm -S /etc/varnish/secret -T 127.0.0.1:6082

backend.set_healtlist
200
Backend name Refs Admin Probe
appsrv1(192.168.198.128,,80) 7 probe Healthy 8/8
imgsrv1(192.168.198.120,,80) 7 probe Sick 0/8
imgsrv2(192.168.198.120,,8080) 6 probe Healthy 8/8

修复imgsrv1,使imgsrv1上线1

[root@Varnish ~]# varnishadm -S /etc/varnish/secret -T 127.0.0.1:6082

backend.set_healtlist
200
Backend name Refs Admin Probe
appsrv1(192.168.198.128,,80) 7 probe Healthy 8/8
imgsrv1(192.168.198.120,,80) 7 probe Healthy 8/8
imgsrv2(192.168.198.120,,8080) 6 probe Healthy 8/8

Varnish后端主机的健康状态检查的更多相关文章

  1. nginx_upstream_check_module-master对nginx的后端机器进行健康状态检查报403错误【转】

    在nginx.conf配置文件中 在server添加 location /nstatus { check_status; access_log off; #allow 192.168.2.11; #d ...

  2. pod管理调度约束、与健康状态检查

    pod的管理 [root@k8s-master ~]# vim pod.yaml apiVersion: v1 kind: Pod metadata: name: nginx-pod labels: ...

  3. Tengine笔记3:Nginx的反向代理和健康状态检查

    通常代理服务器只用于处理内部网络对Intenet的请求,客户端必须通过代理服务器把本来要发送到Web服务器上的请求通过代理服务器分发给Web服务器,Web服务器响应时再通过代理服务器把响应发给客户端: ...

  4. 利用ldirectord实现lvs后端realserver健康状态检查

    ldirectord用来实现LVS负载均衡资源在主.备节点间的故障转移.在首次启动时,ldirectord可以自动创建IPVS表.此外,它还可以监控各RealServer的运行状态,一旦发现某Real ...

  5. Kubernetes 健康状态检查(九)

    强大的自愈能力是 Kubernetes 这类容器编排引擎的一个重要特性.自愈的默认实现方式是自动重启发生故障的容器.除此之外,用户还可以利用 Liveness 和 Readiness 探测机制设置更精 ...

  6. 7.5 实现基于探针对pod中的访问的健康状态检查

    1.pod的声明周期 取值 描述 Pending Pod 已被 Kubernetes 系统接受,但有一个或者多个容器尚未创建亦未运行.此阶段包括等待 Pod 被调度的时间和通过网络下载镜像的时间, R ...

  7. http健康状态检查

    来自为知笔记(Wiz)

  8. WEB缓存系统之varnish代理以及健康状态检测配置

    前文我们聊了下varnish的缓存项修剪配置,回顾请参考https://www.cnblogs.com/qiuhom-1874/p/12666406.html:今天我来说一下varnish作为代理服务 ...

  9. Nginx负载均衡中后端节点服务器健康检查的操作梳理

    正常情况下,nginx做反向代理,如果后端节点服务器宕掉的话,nginx默认是不能把这台realserver踢出upstream负载集群的,所以还会有请求转发到后端的这台realserver上面,这样 ...

随机推荐

  1. eclipse中console的输出行数控制

    eclipse中console的输出行数控制 开发中,会遇到当输出大量的sql语句或者错误的时候,往往会因为console输出的限制而不能完整显示,所以我们自己就需要迫切的增加显示的行数,这样 就可以 ...

  2. [Tyvj 1728] 普通平衡树

    大名鼎鼎的板子题w 照例先贴题面 Describtion 您需要写一种数据结构(可参考题目标题),来维护一些数,其中需要提供以下操作:1. 插入x数2. 删除x数(若有多个相同的数,因只删除一个)3. ...

  3. robot framework 怎么点击文本总结

    点击文本有一下几种方式 1.

  4. nodeJS之域名DNS

    前面的话 本文将详细介绍域名解析模块DNS 工作原理 打开浏览器,在上方地址栏输入网址的那一刻,这个回车按了之后,发生了很多事情.首先,计算机只懂0和1,也就是说人类的字母网址计算机是不懂的,它只认识 ...

  5. log4go的日志滚动处理——适应生产环境的需要

    日志处理有三类使用环境,开发环境DE,测试环境TE,生产环境PE. 前两类可以看成是一类,重要的是屏幕显示--termlog.生产环境中主要用的是socklog 和 filelog,即网络传输日志和文 ...

  6. RabbitMQ入门-消息订阅模式

    消息派发 上篇<RabbitMQ入门-消息派发那些事儿>发布之后,收了不少反馈,其中问的最多的还是有关消息确认以及超时等场景的处理. 楼主,有遇到消费者后台进程不在,但consumer连接 ...

  7. 经验分享:极速化 CocoaPods

    Cocopods 本身是一个优秀的 iOS 开发的包管理工具,涵盖了 7k+ 的开源组件,包管理库是托管在 Github.由于众所周知的原因它的速度日渐缓慢,有时会频繁报如下错误: 1 2 3 4 $ ...

  8. NYOJ 23.取石子(一)

    取石子(一) 时间限制:3000 ms  |  内存限制:65535 KB 难度:2   描述 一天,TT在寝室闲着无聊,和同寝的人玩起了取石子游戏,而由于条件有限,他/她们是用旺仔小馒头当作石子.游 ...

  9. java类的继承,多态,抽象类与接口

    知识点梳理:     1,怎样定义自己的类. MyStarFrame,MyStarPanel 类中定义: (1)属性(数据),变量. (2)方法(函数),行为. (3)构造方法(特征,作用,何时被调用 ...

  10. Java String字符串深入详解

    Java中字符串对象创建有两种形式,一种为字面量形式,如String str = "hello";,另一种就是使用new这种标准的构造对象的方法,如String str = new ...