//硬件准备:

.两个机器,相同系统

.网卡ip为:aming   192.168.11.24
aming1 192.168.11.23
//实验准备:

. hostname : aming , aming1

. 关闭防火墙 : iptables -F

        setenforce 

. 更改hosts  : vi /etc/hosts

        192.168.11.24 aming
        192.168.11.23 aming1 . 安装epel扩展源: rpm -ivh 'http://www.lishiming.net/data/attachment/forum/epel-release-6-8_32.noarch.rpm' . 主从都安装heartbeat / libnet / nginx
yum install -y heartbeat* libnet nginx
 //实验时需要的

一、 两个机器的网卡需要相同 ,不管是eth0还是eth1。但如果是克隆出来的虚拟机,则网卡一个为eth0,一个为eth1.所以需要设置

在eth1的虚拟机中做下列的步骤
、在/etc/grub.conf 里增加biosdevname=0的启动参数,形如
kernel /vmlinuz-2.6.-131.21..el6.i686 ro root=/dev/mapper/vg_test-lv_root rd_LVM_LV=vg_test/lv_root rd_LVM_LV=vg_test/lv_swap rd_NO_LUKS rd_NO_MD rd_NO_DM LANG=en_US.UTF- SYSFONT=latar --将此行复制在上行的下方
cyrheb-sun16 KEYBOARDTYPE=pc KEYTABLE=us crashkernel=auto rhgb quiet biosdevname= 、删除udev的配置文件rm -f /etc/udev/rules.d/-persistent-net.rules
、把网卡配置文件改名
mv ifcfg-em1 ifcfg-eth0
、把网卡配置文件内容修正,把em1的全部改成eth0
可以使用 perl -p -i -e 's/em1/eth0/g' ifcfg-eth0 或
sed -i 's/em1/eth0/g' ifcfg-eth0 进行替换。
、重启系统即可 二、两个机器之间 拷贝文件 scp 安装:
--> yum install openssh-clients
主 和从都需要安装
//主上配置
[root@localhost ~]# cd /usr/share/doc/heartbeat-3.0./
[root@localhost /heartbeat-3.0.]# cp authkeys ha.cf haresources /etc/ha.d/
[root@localhost /heartbeat-3.0.]# cd /etc/ha.d
[root@localhost ha.d]# vi authkeys
//此配置文件 是主从进行通信的 要时时检测是否有当掉的迹象
//文件最尾处

#auth //1 ,2 ,3表示通信的加密程度
# crc {最简单}
# sha1 HI! {最复杂}
# md5 Hello! {第二简单} 改为
auth //选择中间值
# crc
# sha1 HI!
md5 Hello!
[root@localhost ha.d]# chmod authkeys
[root@localhost ha.d]# vi haresources
//这里如果做了nfs共享存储 也可以配置在这里
//加入
aming 192.168.11.10//eth1: nginx /*第一段 master的主机名*/
/*第二段 流动ip,实验时用同网段的*/
/*eth1:0 这个根据主机的网卡设置,主机为eth0则设置为eth0:n,n自定义*/
/*nginx 为哪一个提供服务 意义为如果主的nginx服务down掉以后,从会启动继续提供服务*/ <--流动ip--->
主和从都有自己的 ip ,但当主宕机时 ,主的ip不能跑到从去 即vip ,主运行时,流动ip在主,从运行时,则流动ip在从。
<--> [root@localhost ~]# vi ha.cf
//改为
debugfile /var/log/ha-debug
logfile /var/log/ha-log
logfacility local0
keepalive
deadtime
warntime
initdead
udpport
ucast eth1 192.168.11.23
auto_failback on
node aming
node aming1
ping 192.168.11.1
respawn hacluster /usr/lib/heartbeat/ipfail //将主上配置文件拷贝到从上
[root@localhost ~]# cd /etc/ha.d/
[root@localhost ha.d]# scp authkeys ha.cf haresources aming1:/etc/ha.d/
//在从上编辑
[root@localhost ~]# vi /etc/ha.d/ha.cf
//只需要改一个地方,将此处的slave的ip改为master的ip
ucast eth1 192.168.11.23 改为 ucast eth1 192.168.11.24 //启动 heartbeat
//先主,后从
[root@localhost ~]# service heartbeat start
//检查测试

ifconfig 看是否有 eth1:  /   ip add 命令看是否多了 eth1:
ps aux |grep nginx 看是否有nginx进程 //测试
.主上对nginx的页面进行设置
echo "1111master" > /usr/share/nginx/html/index.html 去浏览器访问 http://192.168.11.10{流动ip}/ 页面会显示 1111master 从上也设置 echo "2222slave" > /usr/share/nginx/html/index.html 设置规则 iptables -A INPUT -p icmp -j DROP
查看heartbeat日志 tail /var/log/ha-log tail -f /var/log/ha-log
看到master停掉 ,转给slave运行 再打开浏览器 页面变成了 2222slave 则说明设置成功 .主上故意禁ping
iptables -I INPUT -p icmp -j DROP --主上的当掉了,从上还可以用

HA集群的更多相关文章

  1. 安装spark ha集群

    安装spark ha集群 1.默认安装好hadoop+zookeeper 2.安装scala 1.解压安装包 tar zxvf scala-2.11.7.tgz 2.配置环境变量 vim /etc/p ...

  2. Hadoop的HA集群启动和停止流程

    假设我们有3台虚拟机,主机名分别是hadoop01.hadoop02和hadoop03. 这3台虚拟机的Hadoop的HA集群部署计划如下: 3台虚拟机的Hadoop的HA集群部署计划 hadoop0 ...

  3. corosync+pacemaker实现高可用(HA)集群

    corosync+pacemaker实现高可用(HA)集群(一)     重要概念 在准备部署HA集群前,需要对其涉及的大量的概念有一个初步的了解,这样在实际部署配置时,才不至于不知所云 资源.服务与 ...

  4. 使用QJM部署HDFS HA集群

    一.所需软件 1. JDK版本 下载地址:http://www.oracle.com/technetwork/java/javase/index.html 版本: jdk-7u79-linux-x64 ...

  5. Storm-1.0.1+ZooKeeper-3.4.8+Netty-4.1.3 HA集群安装

    Storm-1.0.1+ZooKeeper-3.4.8+Netty-4.1.3 HA集群安装 下载Storm-1.0.1 http://mirrors.tuna.tsinghua.edu.cn/apa ...

  6. 菜鸟玩云计算之十九:Hadoop 2.5.0 HA 集群安装第2章

    菜鸟玩云计算之十九:Hadoop 2.5.0 HA 集群安装第2章 cheungmine, 2014-10-26 在上一章中,我们准备好了计算机和软件.本章开始部署hadoop 高可用集群. 2 部署 ...

  7. 菜鸟玩云计算之十八:Hadoop 2.5.0 HA 集群安装第1章

    菜鸟玩云计算之十八:Hadoop 2.5.0 HA 集群安装第1章 cheungmine, 2014-10-25 0 引言 在生产环境上安装Hadoop高可用集群一直是一个需要极度耐心和体力的细致工作 ...

  8. 架构之高可用性(HA)集群(Keepalived)

    Keepalived简介 Keepalived是Linux下一个轻量级别的高可用解决方案.高可用(High Avalilability,HA),其实两种不同的含义:广义来讲,是指整个系统的高可用行,狭 ...

  9. 手动部署 kubernetes HA 集群

    前言 关于kubernetes HA集群部署的方式有很多种(这里的HA指的是master apiserver的高可用),比如通过keepalived vip漂移的方式.haproxy/nginx负载均 ...

  10. 基于zookeeper的高可用Hadoop HA集群安装

    (1)hadoop2.7.1源码编译 http://aperise.iteye.com/blog/2246856 (2)hadoop2.7.1安装准备 http://aperise.iteye.com ...

随机推荐

  1. 【BZOJ1941】Hide and Seek(KD-Tree)

    [BZOJ1941]Hide and Seek(KD-Tree) 题面 BZOJ 洛谷 题解 \(KD-Tree\)对于每个点搜一下最近点和最远点就好了 #include<iostream> ...

  2. HDU.1233 还是畅通工程(Prim)

    HDU.1233 还是畅通工程(Prim) 题意分析 首先给出n,代表村庄的个数 然后出n*(n-1)/2个信息,每个信息包括村庄的起点,终点,距离, 要求求出最小生成树的权值之和. 注意村庄的编号从 ...

  3. AOJ.866 飞越原野 (三维BFS)

    AOJ.866 飞越原野 (三维BFS) 题意分析 点我挑战题目 相比于普通的BFS,要多一维来记录当前剩余的体力.而且还要额外的一层循环来处理,飞过的路程. 代码总览 #include <io ...

  4. HDOJ.2955 Robberies (01背包+概率问题)

    Robberies 算法学习-–动态规划初探 题意分析 有一个小偷去抢劫银行,给出来银行的个数n,和一个概率p为能够逃跑的临界概率,接下来有n行分别是这个银行所有拥有的钱数mi和抢劫后被抓的概率pi, ...

  5. 【DP】【P2224】】【HNOI2001】产品加工

    传送门 Description 某加工厂有\(A\).\(B\)两台机器,来加工的产品可以由其中任何一台机器完成,或者两台机器共同完成.由于受到机器性能和产品特性的限制,不同的机器加工同一产品所需的时 ...

  6. printf函数用法小记

    By francis_hao    Aug 26,2017   C语言中printf函数是一个比较常用的函数,但是常用并不代表完全了解,本文翻译了printf的man手册,介绍了其全部功能(不包括ma ...

  7. 怎么使用formBuilder以拖拽方式编写页面

    1.以admin用户登录系统,打开formbuilder http://localhost:8081/framework/main/formbuilder 2.从右方组件中,用鼠标拖拽页面所需的组件到 ...

  8. 理解Linux文件系统挂载参数noatime nodiratime

    很多线上服务器为了提供文件系统IO性能,会在挂载文件系统的时候指定“noatime,nodiratime”参数,意味着当访问一个文件和目录的时候,access time都不会更新.但是如果未指定上面的 ...

  9. BZOJ1878: [SDOI2009]HH的项链 (离线查询+树状数组)

    1878: [SDOI2009]HH的项链 题目链接:https://www.lydsy.com/JudgeOnline/problem.php?id=1878 Description: HH有一串由 ...

  10. Leetcode 703. 数据流中的第K大元素

    1.题目要求 设计一个找到数据流中第K大元素的类(class).注意是排序后的第K大元素,不是第K个不同的元素. 你的 KthLargest 类需要一个同时接收整数 k 和整数数组nums 的构造器, ...