1、前提条件

准备两台配置相同的服务器

2、安装DRBD

[root@server139 ~]# yum -y update kernel kernel-devel

[root@server139 ~]# rpm -Uvh http://www.elrepo.org/elrepo-release-7.0-2.el7.elrepo.noarch.rpm

[root@server139 ~]# yum -y install drbd84-utils kmod-drbd84

3、新建一个分区

[root@server139 ~]# fdisk -l

[root@server139 ~]# fdisk /dev/sdb

n

w

注:两台机器新建的分区大小必须一样

4、修改DRBD配置

[root@server139 ~]# vim /etc/drbd.conf

#include "drbd.d/global_common.conf";#注释掉这行,避免和我们自己写的配置产生冲突。
include "drbd.d/*.res";

[root@server139 ~]# vim /etc/drbd.d/drbd_basic.cfg

global {

usage-count yes; # 是否参与DRBD使用者统计,默认为yes,yes or no都无所谓

}

common {

syncer { rate 100M; } # 设置主备节点同步的网络速率最大值,默认单位是字节,我们可以设定为兆

}

resource r0 { # r0为资源名,我们在初始化磁盘的时候就可以使用资源名来初始化。

protocol C; #使用 C 协议。

handlers {

pri-on-incon-degr "echo o > /proc/sysrq-trigger ; halt -f ";

pri-lost-after-sb "echo o > /proc/sysrq-trigger ; halt -f ";

local-io-error "echo o > /proc/sysrq-trigger ; halt -f";

fence-peer "/usr/lib4/heartbeat/drbd-peer-outdater -t 5";

pri-lost "echo pri-lst. Have a look at the log file. | mail -s 'Drbd Alert' root";

split-brain "/usr/lib/drbd/notify-split-brain.sh root";

out-of-sync "/usr/lib/drbd/notify-out-of-sync.sh root";

}

net {

cram-hmac-alg "sha1";

shared-secret "NFS-HA";

# drbd同步时使用的验证方式和密码信息

}

disk {

on-io-error detach;

fencing resource-only;

}

startup {

wfc-timeout 120;

degr-wfc-timeout 120;

}

device /dev/drbd0;   # 这里/dev/drbd0是用户挂载时的设备名字,由DRBD进程创建

on server139 {    #每个主机名的说明以on开头,后面是hostname(必须在/etc/hosts可解析)

disk /dev/nfsdisk/nfsvolume;   # 使用这个磁盘作为/dev/nfsdisk/nfsvolume的磁盘/dev/drbd0。(这个就是我们之前创建的一定要保证存在要不后续会出错)

address 192.168.37.139:7788;     #设置DRBD的监听端口,用于与另一台主机通信

meta-disk internal;     # drbd的元数据存放方式

}

on server140 {

disk /dev/nfsdisk/nfsvolume;

address 192.168.37.140:7788;

meta-disk internal;

}

}

注:两台机器的drbd配置必须一样,并且/etc/hosts设置必须正确

5、启动DRBD

[root@server139 ~]# service firewalld stop     //临时关闭防火墙

[root@server139 ~]# setenforce 0            //临时关闭selinux

[root@server139 ~]# systemctl disable firewalld //永久关闭防火墙

[root@server139 ~]# vim /etc/sysconfig/selinux //永久关闭selinux 设置SELINUX=disabled;

主从节点都先执行以下命令:

[root@server139 ~]# drbdadm create-md r0   //创建元数据库

[root@server139 ~]# service drbd start       //启动drbd 服务

[root@server139 ~]# service drbd status      //查看drbd服务状态

[root@server139 ~]# cat /proc/drbd          //

主节点再执行:

[root@server139 ~]# drbdadm primary r0      //设置成主节点 --force

[root@server139 ~]# mkfs.ext4 /dev/drbd0     //需要格式化

[root@server139 ~]# mount /dev/drbd0 /data   //umount /dev/drbd0

[root@server139 ~]# cat /proc/drbd           //

6、DRBD手动故障切换测试

主节点:

[root@server139 ~]# ls /data  //

[root@server139 ~]# touch /data/test.txt       //

[root@server139 ~]# umount /dev/drbd0  //卸载挂载的盘符

[root@server139 ~]# service drbd stop //停止drbd 服务

从节点:

[root@server140 ~]# drbdadm primary r0      //设置成主节点 --force

[root@server140 ~]# mount /dev/drbd0 /data //挂载盘符到/data目录

[root@server140 ~]# ls /data //查看data下是否和在主节点下看到的一样

注:测试完成之后记得恢复

7、安装nfs服务

[root@server139 ~]# yum install rpcbind nfs-utils

[root@server139 ~]# vim /etc/exports

/data 192.168.37.0/24(rw,sync,no_root_squash)

[root@server139 ~]# service rpcbind start

[root@server139 ~]# service nfs start

注:主从节点都要安装

8、安装Keepalived

[root@server139 ~]# yum install -y keepalived

[root@server139 ~]# mkdir /etc/keepalived/logs

[root@server139 ~]# vim /etc/keepalived/check_nfs.sh

#!/bin/sh

###检查nfs可用性:进程和是否能够挂载

/sbin/service nfs status &>/dev/null

if [ $? -ne 0 ];then

###如果服务状态不正常,先尝试重启服务

/sbin/service nfs restart

/sbin/service nfs status &>/dev/null

if [ $? -ne 0 ];then

###若重启nfs服务后,仍不正常

###卸载drbd设备

umount /dev/drbd0

###将drbd主降级为备

drbdadm secondary r0

#关闭keepalived

/sbin/service keepalived stop

fi

fi

[root@server139 ~]# vim /etc/keepalived/check_network.sh

#! /bin/bash

ping -c 192.168.37.100  > /dev/null 2>&1

if [ $? -eq 0 ];then

echo ok

else

echo retry.....

ping -c 192.168.37.100  > /dev/null 2>&1

if [ $? -eq 0 ];then

echo ok

else

echo err

/etc/keepalived/notify_master.sh

fi

#/etc/keepalived/notify_master.sh

fi

[root@server139 ~]# vim /etc/keepalived/notify_master.sh

#!/bin/bash

time=`date "+%F  %H:%M:%S"`

echo -e "$time    ------notify_master------\n" >> /etc/keepalived/logs/notify_master.log

/sbin/drbdadm primary r0 --force &>> /etc/keepalived/logs/notify_master.log

/bin/mount /dev/drbd0 /data &>> /etc/keepalived/logs/notify_master.log

/sbin/service nfs restart &>> /etc/keepalived/logs/notify_master.log

echo -e "\n" >> /etc/keepalived/logs/notify_master.log

[root@server139 ~]# vim /etc/keepalived/notify_backup.sh

#!/bin/bash

time=`date "+%F  %H:%M:%S"`

echo -e "$time    ------notify_backup------\n" >> /etc/keepalived/logs/notify_backup.log

/sbin/service nfs stop &>> /etc/keepalived/logs/notify_backup.log

/bin/umount /dev/drbd0 &>> /etc/keepalived/logs/notify_backup.log

/sbin/drbdadm secondary r0 &>> /etc/keepalived/logs/notify_backup.log

echo -e "\n" >> /etc/keepalived/logs/notify_backup.log

[root@server139 ~]# vim /etc/keepalived/notify_stop.sh

#!/bin/bash

time=`date "+%F  %H:%M:%S"`

echo -e "$time  ------notify_stop------\n" >> /etc/keepalived/logs/notify_stop.log

/sbin/service nfs stop &>> /etc/keepalived/logs/notify_stop.log

/bin/umount /data &>> /etc/keepalived/logs/notify_stop.log

/sbin/drbdadm secondary r0 &>> /etc/keepalived/logs/notify_stop.log

echo -e "\n" >> /etc/keepalived/logs/notify_stop.log

配置主节点keepalived.conf

[root@server139 ~]# vim /etc/keepalived/keepalived.conf

! Configuration File for keepalived

global_defs {

router_id DRBD_HA_MASTER

}

vrrp_script chk_nfs {

script "/etc/keepalived/check_nfs.sh"

interval 5

}

vrrp_instance VI_1 {

state MASTER

interface ens33

virtual_router_id 51

priority 100

advert_int 1

authentication {

auth_type PASS

auth_pass 1111

}

track_script {

chk_nfs

}

notify_stop /etc/keepalived/notify_stop.sh

notify_master /etc/keepalived/notify_master.sh

virtual_ipaddress {

192.168.37.100/24

}

}

配置从节点keepalived.conf

[root@server139 ~]# vim /etc/keepalived/keepalived.conf

global_defs {

router_id DRBD_HA_BACKUP

}

vrrp_script chk_net{

script "/etc/keepalived/check_network.sh"

interval 5

}

vrrp_instance VI_1 {

state BACKUP

interface ens33

virtual_router_id 51

priority 90

advert_int 1

authentication {

auth_type PASS

auth_pass 1111

}

track_script {

chk_net

}

notify_master /etc/keepalived/notify_master.sh

notify_backup /etc/keepalived/notify_backup.sh

virtual_ipaddress {

192.168.37.100/24

}

}

[root@server139 ~]# service keepalived start  //启动keepalived 服务

[root@server139 ~]# service keepalived status  //查看keepalived 服务状态

注:主从节点都要安装

9、客户端挂载NFS

客户端只需要安装rpcbind程序,并确认服务正常

[root@server141 ~]# yum install rpcbind nfs-utils

[root@server141 ~]# service rpcbind start

[root@server141 ~]# mount -t nfs 192.168.37.100:/data /data

[root@server141 ~]# ls /data

10、模拟测试自动故障切换

1、先关闭主节点主机上的keepalived服务。就会发现VIP资源已经转移到从节点主机上了。同时,主节点主机的nfs也会主动关闭,同时从节点主机会升级为DRBD的主节点。

[root@server139 ~]# service keepalived stop

[root@server139 ~]# ip address

[root@server139 ~]# ps -ef|grep nfs

[root@server139 ~]# df -h

查看系统日志,也能看到VIP资源转移信息

[root@server139 ~]# tail -1000 /var/log/messages

登录到从节点主机上,发现VIP资源已经转移过来

[root@server140 ~]# ip address

[root@server140 ~]# df -h

2、当主节点主机的keepalived服务恢复启动后,VIP资源又会强制夺回来(可以查看/var/log/message系统日志),并且主节点主机还会再次变为DRBD的主节点。

3、关闭主节点主机的nfs服务。根据监控脚本,会主动去启动nfs,只要当启动失败时,才会强制由DRBD的主节点降为备份节点,并关闭keepalived。从而跟1的流程一样实现故障转移。

11、客户端连续读写测试

1、在nfs客户端执行for i in {1..5000};do dd if=/dev/zero of=/data/$i.file bs=1M count=1;done

(/data为客户端挂载点,用dd向挂载点内写入5000个1M的文件)。执行过程中在主关闭keepalived,验证写入过程是否会中断。经验证,写入过程没有中断,但中会出现一段时间的延时。

[root@server141 ~]# for i in {1..5000};do dd if=/dev/zero of=/data/$i.file bs=1M count=1;done

2、客户端从其他目录向挂载点拷贝文件,中途开启原主的keepalived(vip自动切回主,产生一次切换动作)。经验证,拷贝过程不中断,并且文件状态亦未受到切换动作的影响,但中会出现一段时间的延时。

[root@server141 ~]# time cp -av /usr/* /data

3、客户端挂载点向其他目录拷贝大文件,执行过程中在主关闭keepalived,md5sum验证文件的一致性。

参考链接:https://cloud.tencent.com/developer/article/1026286

include "drbd.d/*.cfg"; 增加一行cfg

DRBD+NFS+Keepalived高可用环境的更多相关文章

  1. Centos下部署DRBD+NFS+Keepalived高可用环境记录

    使用NFS服务器(比如图片业务),一台为主,一台为备.通常主到备的数据同步是通过rsync来做(可以结合inotify做实时同步).由于NFS服务是存在单点的,出于对业务在线率和数据安全的保障,可以采 ...

  2. LVS+Keepalived 高可用环境部署记录(主主和主从模式)

    之前的文章介绍了LVS负载均衡-基础知识梳理, 下面记录下LVS+Keepalived高可用环境部署梳理(主主和主从模式)的操作流程: 一.LVS+Keepalived主从热备的高可用环境部署 1)环 ...

  3. Haproxy+Keepalived高可用环境部署梳理(主主和主从模式)

    Nginx.LVS.HAProxy 是目前使用最广泛的三种负载均衡软件,本人都在多个项目中实施过,通常会结合Keepalive做健康检查,实现故障转移的高可用功能. 1)在四层(tcp)实现负载均衡的 ...

  4. Redis+Keepalived高可用环境部署记录

    Keepalived 实现VRRP(虚拟路由冗余)协议,从路由级别实现VIP切换,可以完全避免类似heartbeat脑裂问题,可以很好的实现主从.主备.互备方案,尤其是无状态业务,有状态业务就需要额外 ...

  5. Heartbeat+DRBD+NFS 构建高可用的文件系统

    1.实验拓扑图 2.修改主机名 1 2 3 vim /etc/sysconfig/network vim /etc/hosts drbd1.free.com     drbd2.free.com 3. ...

  6. nfs+keepalived高可用

    1台nfs主被服务器都下载nfs.keepalived yum install nfs-utils rpcbind keepalived -y 2台nfs服务器nfs挂载目录及配置必须相同 3.在主n ...

  7. nginx负载均衡+keepalived高可用

    nginx负载均衡+keepalived高可用 环境准备 192.168.88.111:nginx + keepalived   MASTER 192.168.88.112:nginx + keepa ...

  8. 使用KeepAlived搭建MySQL高可用环境

    使用KeepAlived搭建MySQL的高可用环境.首先搭建MySQL的主从复制在Master开启binlog,创建复制帐号,然后在Slave输入命令   2016年7月25日   配置安装技巧:   ...

  9. rabbitmq+haproxy+keepalived高可用集群环境搭建

    1.先安装centos扩展源: # yum -y install epel-release 2.安装erlang运行环境以及rabbitmq # yum install erlang ... # yu ...

随机推荐

  1. Flutter实战视频-移动电商-13.首页_广告Banner组件制作

    13.首页_广告Banner组件制作 主要是做这个小广告条. 其实就是读取一个图片做一个widget放到这里 使用stlessW快速生成 定义一个变量存放图片的url地址: 这样我们的广告条就写完了 ...

  2. 01.课程介绍 & 02.最小可行化产品MVP

    01.课程介绍 02.最小可行化产品MVP 产品开发过程 最小化和可用之间找到一个平衡点

  3. CodeForces Gym 100685J Just Another Disney Problem (STL,排序)

    题意:给定你大小未知的n个数,你允许有不超过一万次的询问,每次询问两个数,第i个数是否比第j个数小?然后后台会返回给你一个结果YES或者NO(即一行输入), 然后经过多次询问后,你需要给出一个正确的原 ...

  4. MacBook外置显卡eGPU折腾笔记

    MacBook外置显卡eGPU折腾笔记 硬件选购 当今市场上个人电脑的独立显卡,基本上能选的只有NVIDIA和AMD了,如果你想买外置显卡来打游戏的话,NVIDIA和AMD的都可以,但如果是像我一样准 ...

  5. 利用ant 和 Junit 生成测试报告

    我们除了使用java来直接运行junit之外,我们还可以使用junit提供的junit task与ant结合来运行. 涉及的几个主要的ant task如下: <junit>,定义一个jun ...

  6. 洛谷 - P5030 - 长脖子鹿放置 - 二分图最大独立集

    https://www.luogu.org/problemnew/show/P5030 写的第一道黑色题,图建对了. 隐约觉得互相攻击要连边,规定从奇数行流向偶数行. 二分图最大独立集=二分图顶点总数 ...

  7. 网络工程师HCNA认证学习笔记Day1

    企业网络 企业网络远程互联是广域网WAN互联,而非互联网Internet小型企业网络:一个路由器.交换机.AP大型企业网络:核心层.汇聚层.接入层.考虑可用性.稳定性.扩展性.安全性.可管理,冗余. ...

  8. SpringBoot2.0 整合 Swagger2 ,构建接口管理界面

    一.Swagger2简介 1.Swagger2优点 整合到Spring Boot中,构建强大RESTful API文档.省去接口文档管理工作,修改代码,自动更新,Swagger2也提供了强大的页面测试 ...

  9. 笔记-JavaWeb学习之旅13

    验证码案列 昨天晚上出现的500错误原因在于验证码没有获取到,获取验证码是应该获取的是共享域中的验证码,而我把获取值得键给写成了jsp中的键,而不是内存生成图片中,然后把图片上传到共享域中的键.这两个 ...

  10. H - String painter

    #include <iostream> #include <algorithm> #include <cstring> #include <cstdio> ...