//硬件准备:

.两个机器,相同系统

.网卡ip为:aming   192.168.11.24
aming1 192.168.11.23
//实验准备:

. hostname : aming , aming1

. 关闭防火墙 : iptables -F

        setenforce 

. 更改hosts  : vi /etc/hosts

        192.168.11.24 aming
        192.168.11.23 aming1 . 安装epel扩展源: rpm -ivh 'http://www.lishiming.net/data/attachment/forum/epel-release-6-8_32.noarch.rpm' . 主从都安装heartbeat / libnet / nginx
yum install -y heartbeat* libnet nginx
 //实验时需要的

一、 两个机器的网卡需要相同 ,不管是eth0还是eth1。但如果是克隆出来的虚拟机,则网卡一个为eth0,一个为eth1.所以需要设置

在eth1的虚拟机中做下列的步骤
、在/etc/grub.conf 里增加biosdevname=0的启动参数,形如
kernel /vmlinuz-2.6.-131.21..el6.i686 ro root=/dev/mapper/vg_test-lv_root rd_LVM_LV=vg_test/lv_root rd_LVM_LV=vg_test/lv_swap rd_NO_LUKS rd_NO_MD rd_NO_DM LANG=en_US.UTF- SYSFONT=latar --将此行复制在上行的下方
cyrheb-sun16 KEYBOARDTYPE=pc KEYTABLE=us crashkernel=auto rhgb quiet biosdevname= 、删除udev的配置文件rm -f /etc/udev/rules.d/-persistent-net.rules
、把网卡配置文件改名
mv ifcfg-em1 ifcfg-eth0
、把网卡配置文件内容修正,把em1的全部改成eth0
可以使用 perl -p -i -e 's/em1/eth0/g' ifcfg-eth0 或
sed -i 's/em1/eth0/g' ifcfg-eth0 进行替换。
、重启系统即可 二、两个机器之间 拷贝文件 scp 安装:
--> yum install openssh-clients
主 和从都需要安装
//主上配置
[root@localhost ~]# cd /usr/share/doc/heartbeat-3.0./
[root@localhost /heartbeat-3.0.]# cp authkeys ha.cf haresources /etc/ha.d/
[root@localhost /heartbeat-3.0.]# cd /etc/ha.d
[root@localhost ha.d]# vi authkeys
//此配置文件 是主从进行通信的 要时时检测是否有当掉的迹象
//文件最尾处

#auth //1 ,2 ,3表示通信的加密程度
# crc {最简单}
# sha1 HI! {最复杂}
# md5 Hello! {第二简单} 改为
auth //选择中间值
# crc
# sha1 HI!
md5 Hello!
[root@localhost ha.d]# chmod authkeys
[root@localhost ha.d]# vi haresources
//这里如果做了nfs共享存储 也可以配置在这里
//加入
aming 192.168.11.10//eth1: nginx /*第一段 master的主机名*/
/*第二段 流动ip,实验时用同网段的*/
/*eth1:0 这个根据主机的网卡设置,主机为eth0则设置为eth0:n,n自定义*/
/*nginx 为哪一个提供服务 意义为如果主的nginx服务down掉以后,从会启动继续提供服务*/ <--流动ip--->
主和从都有自己的 ip ,但当主宕机时 ,主的ip不能跑到从去 即vip ,主运行时,流动ip在主,从运行时,则流动ip在从。
<--> [root@localhost ~]# vi ha.cf
//改为
debugfile /var/log/ha-debug
logfile /var/log/ha-log
logfacility local0
keepalive
deadtime
warntime
initdead
udpport
ucast eth1 192.168.11.23
auto_failback on
node aming
node aming1
ping 192.168.11.1
respawn hacluster /usr/lib/heartbeat/ipfail //将主上配置文件拷贝到从上
[root@localhost ~]# cd /etc/ha.d/
[root@localhost ha.d]# scp authkeys ha.cf haresources aming1:/etc/ha.d/
//在从上编辑
[root@localhost ~]# vi /etc/ha.d/ha.cf
//只需要改一个地方,将此处的slave的ip改为master的ip
ucast eth1 192.168.11.23 改为 ucast eth1 192.168.11.24 //启动 heartbeat
//先主,后从
[root@localhost ~]# service heartbeat start
//检查测试

ifconfig 看是否有 eth1:  /   ip add 命令看是否多了 eth1:
ps aux |grep nginx 看是否有nginx进程 //测试
.主上对nginx的页面进行设置
echo "1111master" > /usr/share/nginx/html/index.html 去浏览器访问 http://192.168.11.10{流动ip}/ 页面会显示 1111master 从上也设置 echo "2222slave" > /usr/share/nginx/html/index.html 设置规则 iptables -A INPUT -p icmp -j DROP
查看heartbeat日志 tail /var/log/ha-log tail -f /var/log/ha-log
看到master停掉 ,转给slave运行 再打开浏览器 页面变成了 2222slave 则说明设置成功 .主上故意禁ping
iptables -I INPUT -p icmp -j DROP --主上的当掉了,从上还可以用

HA集群的更多相关文章

  1. 安装spark ha集群

    安装spark ha集群 1.默认安装好hadoop+zookeeper 2.安装scala 1.解压安装包 tar zxvf scala-2.11.7.tgz 2.配置环境变量 vim /etc/p ...

  2. Hadoop的HA集群启动和停止流程

    假设我们有3台虚拟机,主机名分别是hadoop01.hadoop02和hadoop03. 这3台虚拟机的Hadoop的HA集群部署计划如下: 3台虚拟机的Hadoop的HA集群部署计划 hadoop0 ...

  3. corosync+pacemaker实现高可用(HA)集群

    corosync+pacemaker实现高可用(HA)集群(一)     重要概念 在准备部署HA集群前,需要对其涉及的大量的概念有一个初步的了解,这样在实际部署配置时,才不至于不知所云 资源.服务与 ...

  4. 使用QJM部署HDFS HA集群

    一.所需软件 1. JDK版本 下载地址:http://www.oracle.com/technetwork/java/javase/index.html 版本: jdk-7u79-linux-x64 ...

  5. Storm-1.0.1+ZooKeeper-3.4.8+Netty-4.1.3 HA集群安装

    Storm-1.0.1+ZooKeeper-3.4.8+Netty-4.1.3 HA集群安装 下载Storm-1.0.1 http://mirrors.tuna.tsinghua.edu.cn/apa ...

  6. 菜鸟玩云计算之十九:Hadoop 2.5.0 HA 集群安装第2章

    菜鸟玩云计算之十九:Hadoop 2.5.0 HA 集群安装第2章 cheungmine, 2014-10-26 在上一章中,我们准备好了计算机和软件.本章开始部署hadoop 高可用集群. 2 部署 ...

  7. 菜鸟玩云计算之十八:Hadoop 2.5.0 HA 集群安装第1章

    菜鸟玩云计算之十八:Hadoop 2.5.0 HA 集群安装第1章 cheungmine, 2014-10-25 0 引言 在生产环境上安装Hadoop高可用集群一直是一个需要极度耐心和体力的细致工作 ...

  8. 架构之高可用性(HA)集群(Keepalived)

    Keepalived简介 Keepalived是Linux下一个轻量级别的高可用解决方案.高可用(High Avalilability,HA),其实两种不同的含义:广义来讲,是指整个系统的高可用行,狭 ...

  9. 手动部署 kubernetes HA 集群

    前言 关于kubernetes HA集群部署的方式有很多种(这里的HA指的是master apiserver的高可用),比如通过keepalived vip漂移的方式.haproxy/nginx负载均 ...

  10. 基于zookeeper的高可用Hadoop HA集群安装

    (1)hadoop2.7.1源码编译 http://aperise.iteye.com/blog/2246856 (2)hadoop2.7.1安装准备 http://aperise.iteye.com ...

随机推荐

  1. 【以前的空间】bzoj1009 [HNOI2008]GT考试

    动态规划+kmp+矩阵快速幂 关于这题可以写出一个dp方程(f[i,j]表示准考证前i位中后j位为不吉利的数字的前j位的情况的个数) f[i,j]=Σf[i-1,k],其中j表示不吉利数字前k个数字加 ...

  2. 用Docker搭建Nexus私服

    搜索Nexus 在docker容器中加载Nexus镜像 发布本地项目到Nexus私服 配置连接方式 发布指令 打源码包上传插件 搜索Nexus   在我们打算使用Nexus时,我们先搜索一下docke ...

  3. BZOJ2809:[Apio2012]dispatching——题解

    http://www.lydsy.com/JudgeOnline/problem.php?id=2809 题面复制于:https://www.luogu.org/problemnew/show/155 ...

  4. thread-wait/sleep

    对于sleep()方法,我们首先要知道该方法是属于Thread类中的.而wait()方法,则是属于Object类中的. sleep()方法导致了程序暂停执行指定的时间,让出cpu该其他线程,但是他的监 ...

  5. 最近经历的一些大数据(Spark/Hadoop)面试题

    1.简答说一下hadoop的map-reduce编程模型 首先map task会从本地文件系统读取数据,转换成key-value形式的键值对集合 使用的是hadoop内置的数据类型,比如longwri ...

  6. HDU 5651 逆元

    xiaoxin juju needs help Time Limit: 2000/1000 MS (Java/Others)    Memory Limit: 65536/65536 K (Java/ ...

  7. [codeforces/edu3]总结

    链接:http://codeforces.com/contest/609 A题: 贪心,从大到小选. B题: 考虑对立面.$C_{sum}^2-\sum{C_{a_i}^2}$ C题: 最终状态是确定 ...

  8. OpenCV学习笔记(01)我的第一个OpenCV程序(环境配置)

    昨天刚刚考完编译原理,私心想着可以做一些与考试无关的东西了.一直想做和图像处理相关的东西,趁这段时间有空学习一下OpenCV,搭建环境真是一件麻烦的事情,搞了近三个小时终于OK了.先来张图: 大致描述 ...

  9. TP-LINK TL-WN725N V2 / rtl8188eu Linux驱动安装

    https://github.com/lwfinger/rtl8188eu 驱动下载地址 安装: make all make install 参考一下把 http://devillived.net/f ...

  10. arp协议及简单应用

    1:什么是arp协议 参考文章:http://blog.csdn.net/tigerjibo/article/details/7351992 全称是:Address Resolution Protoc ...