ldirectord用来实现LVS负载均衡资源在主、备节点间的故障转移。在首次启动时,ldirectord可以自动创建IPVS表。此外,它还可以监控各RealServer的运行状态,一旦发现某RealServer运行异常时,还可以将其从IPVS表中移除。

ldirectord进程通过向RealServer的RIP发送资源访问请求并通过由RealServer返回的响应信息来确定RealServer的运行状态。在Director上,每一个VIP需要一个单独的ldirectord进程。如果RealServer不能正常响应Director上ldirectord的请求,ldirectord进程将通过ipvsadm命令将此RealServer从IPVS表中移除。而一旦RealServer再次上线,ldirectord会将其重新添加至IPVS表中。

例如,为了监控一组提供web服务的RealServer,ldirectord进程使用HTTP协议请求访问每台RealServer上的某个特定网页。ldirectord进程根据自己的配置文件中事先定义的RealServer正常响应结果来判断当前的返回结果是否正常。比如,在每台web服务器的网站目录中存放一个页面".ldirectord.html",其内容为"Nice",ldirectord进程每隔一段时间就访问一次此网页,并根据获取到的响应信息来判断RealServer的运行状态是否正常。如果其返回的信息不是"Nice",则表明服务不正常。

ldirectord 官方下载地址:现ldirectord可从heartbeat源码包里获得,或者从以下官方链接获得。

http://download.opensuse.org/repositories/network:/ha-clustering:/Stable/

ldirectordhttp://download.opensuse.org/repositories/network:/ha-clustering:/Stable/CentOS_CentOS-6/x86_64/ldirectord-3.9.6-0rc1.1.1.x86_64.rpm

resource-agentshttp://download.opensuse.org/repositories/network:/ha-clustering:/Stable/CentOS_CentOS-6/x86_64/resource-agents-3.9.6-0rc1.1.1.x86_64.rpm

cluster-glue-libshttp://download.opensuse.org/repositories/network:/ha-clustering:/Stable/CentOS_CentOS-6/x86_64/cluster-glue-libs-1.0.12-1.16.1.x86_64.rpm

实现过程:在上一篇文章已经配置好VS/DR,进而直接进行ldirectord配置。

1、安装ldirectord及其依赖

# yum install ldirectord-3.9.6-0rc1.1.1.x86_64.rpm resource-agents-3.9.6-0rc1.1.1.x86_64.rpm cluster-glue-libs-1.0.12-1.16.1.x86_64.rpm

2、配置ldirectord

# rpm -ql ldirectord

# cp /usr/share/doc/ldirectord-3.9.6/ldirectord.cf /etc/ha.d/

# vim /etc/ha.d/ldirectord.cf

# Global Directives

checktimeout=20          # ldirectord等待RealServer健康检查完成的时间,单位为秒;

checkinterval=5             # 每次检查的时间间隔,即检查的频率;

autoreload=yes             # 此项用来定义ldirectord是否每隔一段时间检查此配置文件是否发生改变并自动重新加载;

logfile="/var/log/ldirectord.log"    # 定义日志文件存放位置;

quiescent=yes               # 当某台RealServer出现异常,此项可将其设置为静默状态(即其权重为"0")从而不再响应客户端的访问请求;

# Sample for an http virtual service

virtual=192.168.101.168:80         # 此项用来定义LVS服务及其使用的VIP和PORT

real=10.10.10.11:80 gate 100     # 定义RealServer,语法:real=RIP:port gate|masq|ipip [weight]

real=10.10.10.12:80 gate 300

fallback=127.0.0.1:80 gate         # 当IPVS表没有任何可用的RealServer时,此"地址:端口"作为最后响应的服务;

service=http                                # 定义基于什么服务来测试RealServer;

scheduler=wlc                            # 调度算法为wlc;

#persistent=600                         # 持久连接超时时间;

#netmask=255.255.255.255

protocol=tcp                              # 定义此虚拟服务用到的协议;

checktype=negotiate                # ldirectord进程用于监控RealServer的方法;{negotiate|connect|A number|off}

checkport=80                             # 指健康检查使用的端口;

request=".ldirectord.html"         # 检查RealServer用到的页面

receive="Nice"                            # 检查RealServer用到的页面内容

3、提供当后端RS全部宕掉后,返回的fallback页面,为本机httpd服务

# yum install httpd

# echo "404 Page." > /var/www/html/index.html

# service httpd start

4、启动ldirectord

/etc/rc.d/init.d/ldirectord start

# 至此,Director服务器配置完毕。

5、RS1、RS2提供".ldirectord.html"检测页面

# echo "Nice" > /var/www/html/.ldirectord.html

6、浏览器访问:http://192.168.101.168

7、模拟后端RS故障

RS1:service httpd stop

RS2:service httpd stop

8、Director查看ipvs信息,并使用浏览器访问http://192.168.101.168

# ipvsadm -L -n

IP Virtual Server version 1.2.1 (size=4096)

Prot LocalAddress:Port Scheduler Flags

-> RemoteAddress:Port           Forward Weight ActiveConn InActConn

TCP  192.168.101.168:80 wlc

-> 10.10.10.11:80               Route   0      0          12

-> 10.10.10.12:80               Route   0      0          101

-> 127.0.0.1:80                 Local   1      0          0

9、测试后端RS恢复

RS1:service httpd start

RS2:service httpd start

利用ldirectord实现lvs后端realserver健康状态检查的更多相关文章

  1. Tengine笔记3:Nginx的反向代理和健康状态检查

    通常代理服务器只用于处理内部网络对Intenet的请求,客户端必须通过代理服务器把本来要发送到Web服务器上的请求通过代理服务器分发给Web服务器,Web服务器响应时再通过代理服务器把响应发给客户端: ...

  2. pod管理调度约束、与健康状态检查

    pod的管理 [root@k8s-master ~]# vim pod.yaml apiVersion: v1 kind: Pod metadata: name: nginx-pod labels: ...

  3. nginx_upstream_check_module-master对nginx的后端机器进行健康状态检查报403错误【转】

    在nginx.conf配置文件中 在server添加 location /nstatus { check_status; access_log off; #allow 192.168.2.11; #d ...

  4. Varnish后端主机的健康状态检查

    author:JevonWei 版权声明:原创作品 配置后端主机的Health Check 环境 Varnish 192.168.198.139 图片服务端 192.168.198.120 程序服务端 ...

  5. Kubernetes 健康状态检查(九)

    强大的自愈能力是 Kubernetes 这类容器编排引擎的一个重要特性.自愈的默认实现方式是自动重启发生故障的容器.除此之外,用户还可以利用 Liveness 和 Readiness 探测机制设置更精 ...

  6. 7.5 实现基于探针对pod中的访问的健康状态检查

    1.pod的声明周期 取值 描述 Pending Pod 已被 Kubernetes 系统接受,但有一个或者多个容器尚未创建亦未运行.此阶段包括等待 Pod 被调度的时间和通过网络下载镜像的时间, R ...

  7. http健康状态检查

    来自为知笔记(Wiz)

  8. 如何编写LVS对Real Server的健康状态检测脚本

    简介:Linux 虚拟服务器(Linux Virtual Server. LVS),是一个由章文松开发的自由软件.利用KVS可以实现高可用的.可伸缩缩的Web, Mail, Cache和Medial等 ...

  9. WEB缓存系统之varnish代理以及健康状态检测配置

    前文我们聊了下varnish的缓存项修剪配置,回顾请参考https://www.cnblogs.com/qiuhom-1874/p/12666406.html:今天我来说一下varnish作为代理服务 ...

随机推荐

  1. 017_Python3 数据结构

    本章节我们主要结合前面所学的知识点来介绍Python数据结构.   *****************************   1.列表 Python中列表是可变的,这是它区别于字符串和元组的最重 ...

  2. am335x system upgrade kernel uart(七)

    1      Scope of Document This document describes UART hardware design, uart driver porting 2      Re ...

  3. PHP 鸟哥:我也曾经是“不适合”编程的人

    网名:雪候鸟,大家尊称鸟哥,惠新宸 @Laruence, 是国内最有影响力的 PHP 技术专家,PHP 开发组核心成员,PECL 开发者,Zend 公司外聘顾问.他曾供职于雅虎,百度,现在新浪微博任平 ...

  4. LOJ2434. 「ZJOI2018」历史 [LCT]

    LOJ 思路 第一眼看似乎没有什么思路,试着套个DP上去:设\(dp_x\)表示只考虑\(x\)子树,能得到的最大答案. 合并的时候发现只有\(x\)这个点有可能做出新的贡献,而做出新贡献的时候必然是 ...

  5. ehcache 配置说明

  6. php 压缩文件

    <?php $zip = new ZipArchive; $myfile = fopen("test.zip", "w"); chmod(); if ($ ...

  7. 怎么根据id匹配到名字?

    下拉框---(ps:为了不泄漏隐私,只能截出来一丢丢) table某两列--- 在下拉框是有调渠道的接口,但是table中只获取到了一个id,并没有渠道名称 1.首先获取到那个接口,将mapForCh ...

  8. Gated CNN 阅读笔记

    之前看过TCN,稍微了解了一下语言模型,这篇论文也是对语言模型建模,但是由于对语言模型了解不深,一些常用数据处理方法,训练损失的计算包括残差都没有系统的看过,只是参考网上代码对论文做了粗浅的复现.开学 ...

  9. [设计原则与模式] 如何理解TDD的三条规则

    cp from  :  https://blog.csdn.net/ibelieve1974/article/details/54948031 如何理解Bob大叔的TDD三条规则?第一条和第三条讲的是 ...

  10. 封装qt http文件下载类

    #include <QApplication> #include <QtWidgets> #include <QtNetwork> //downloads one ...