大数据学习笔记——Hadoop高可用完全分布式模式完整部署教程(包含zookeeper)
高可用模式下的Hadoop集群搭建
本篇博客将会在之前写过的Linux的完整部署的基础上进行,暂时不会涉及到伪分布式或者完全分布式模式搭建,由于HA模式涉及到的配置文件较多,维护起来也较为复杂,相信学会部署高可用模式了,其他模式的搭建也会比较驾轻就熟,关于各种配置文件的讲解,如果有时间会在后期另开一篇博客进行详细的解读,现在正式开始部署流程!
1. 安装准备
基本思路讲解:在做正式安装之前,首先需要整理有哪些软件包是一定需要安装的,尽量先在一台机器上(一般我们称这台机器为“母机”)把所有需要的软件以及配置文件部署到位,然后再以这台机器作为母体实行克隆,然后再准备好几个同步的脚本方便以后部署各种分布式组件的时候把软件包分发到各个节点上去,各节点名称为:s101,主节点,s102-s104,三个分节点,s105,备用节点,在主节点挂掉之后用来顶替,每个节点的内存设置为2GB,zookeeper配置到s102-s104这三台主机上以保证datanode的正常运行
1.1 软件准备
我们首先需要准备以下三个tar.gz文件,没有的直接在网上(推荐apache官网)下载即可,下载时务必注意要选择稳定的而不是测试的版本:
Linux端需要的软件包

Windows端需要的软件包:由于在后期使用IntelliJ IDEA的时候会遇到在Windows端运行mapreduce程序的情况,因此在Windows端也需要相应的hadoop软件包

1.2 脚本文件准备
我们需要准备三个脚本文件,xsync.sh filepath,用来分发软件包;xcall.sh args,用来在所有的节点上执行相同的指令;xzk.sh [start | stop],用来同时启动或关闭所有的zkServer
nano /usr/local/bin/xsync.sh
# 拷入以下内容
# 增加执行权限
chmod a+x /usr/local/bin/xsync.sh
#!/bin/bash
if [[ $# -lt ]] ; then echo no params ; exit ; fi
p=$
#echo p=$p
dir=`dirname $p`
#echo dir=$dir
filename=`basename $p`
#echo filename=$filename
cd $dir
fullpath=`pwd -P`
#echo fullpath=$fullpath
user=`whoami`
for (( i = ; i <= ; i = $i + )) ; do
echo =================s$i==============
scp -r $filename ${user}@s$i:$fullpath
done ;
nano /usr/local/bin/xcall.sh
# 拷入以下内容
# 增加执行权限
chmod a+x /usr/local/bin/xcall.sh
#!/bin/bash
if [ $# -lt ] ; then echo 需要参数 ; exit ; fi
for (( i = ; i <= ; i = $i + )) ; do
tput setaf
echo =================s$i==============
tput setaf
ssh s$i "source /etc/profile ; $@"
done ;
nano /usr/local/bin/xzk.sh
# 拷入以下内容
# 增加执行权限
chmod a+x /usr/local/bin/xzk.sh
#!/bin/bash
if [ $# -lt ] ; then echo 需要参数 ; exit ; fi
for (( i = ; i <= ; i = $i + )) ; do
tput setaf
echo =================s$i==============
tput setaf
ssh s$i "source /etc/profile ; zkServer.sh $1"
done ;
2. 软件包安装 & 配置环境变量
部署jdk
1. 在/home/centos下创建一个downloads文件夹用来统一存放tar.gz软件包
mkdir /home/centos/downloads
2. 在根目录/下创建soft文件夹用来统一存放安装完成的各种软件
mkdir /soft
3. 使用WinScp或Xftp等远程传输软件将文件jdk-8u201-linux-x64.tar.gz放到/home/centos/downloads下去
4. 将jdk-8u201-linux-x64.tar.gz解压到/soft目录下
tar -xzvf /home/centos/downloads/jdk-8u201-linux-x64.tar.gz -C /soft
5. 创建符号链接,使用jdk引向jdk1.8.0_201
cd /soft
ln -s jdk1.8.0_201 jdk
6. 配置环境变量
nano /etc/profile
添加以下信息
#java环境变量
export JAVA_HOME=/soft/jdk
export PATH=$PATH:$JAVA_HOME/bin
source /etc/profile
部署hadoop
1. 使用远程传输软件将文件hadoop-2.7.3.tar.gz放到/home/centos/downloads下去
2. 将hadoop 2.7.3解压到/soft目录下
tar -xzvf /home/centos/downloads/hadoop-2.7.3.tar.gz -C /soft
3. 创建符号链接,使用hadoop引向hadoop-2.7.3
cd /soft
ln -s hadoop-2.7.3 hadoop
4. 配置环境变量
nano /etc/profile
添加以下信息
#hadoop环境变量
export HADOOP_HOME=/soft/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile
5. 修改以下配置文件:
cd /soft/hadoop/etc/hadoop
nano hadoop-env.sh
修改:export JAVA_HOME=/soft/jdk
nano core-site.xml
删除原有的配置,添加以下信息
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://mycluster</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/centos/ha</value>
</property>
<property>
<name>dfs.journalnode.edits.dir</name>
<value>/home/centos/ha/journal</value>
</property>
<property>
<name>ha.zookeeper.quorum</name>
<value>s102:2181,s103:2181,s104:2181</value>
</property>
</configuration>
nano hdfs-site.xml
删除原有的配置,添加以下信息
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<!-- 指定名字服务 -->
<property>
<name>dfs.nameservices</name>
<value>mycluster</value>
</property>
<!-- 指定名字服务下的节点 -->
<property>
<name>dfs.ha.namenodes.mycluster</name>
<value>nn1,nn2</value>
</property>
<!-- 指定两个节点的地址 -->
<property>
<name>dfs.namenode.rpc-address.mycluster.nn1</name>
<value>s101:8020</value>
</property>
<property>
<name>dfs.namenode.rpc-address.mycluster.nn2</name>
<value>s105:8020</value>
</property>
<!-- 指定web地址 -->
<property>
<name>dfs.namenode.http-address.mycluster.nn1</name>
<value>s101:50070</value>
</property>
<property>
<name>dfs.namenode.http-address.mycluster.nn2</name>
<value>s105:50070</value>
</property>
<!-- 指定QJM的地址 -->
<property>
<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://s102:8485;s103:8485;s104:8485/mycluster</value>
</property>
<!-- 容灾处理方式 -->
<property>
<name>dfs.client.failover.proxy.provider.mycluster</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
<!-- 容灾的隔离措施 -->
<property>
<name>dfs.ha.fencing.methods</name>
<value>
sshfence
shell(/bin/true)
</value>
</property>
<property>
<name>dfs.ha.automatic-failover.enabled</name>
<value>true</value>
</property>
</configuration>
nano mapred-site.xml
删除原有的配置,添加以下信息
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
nano yarn-site.xml
删除原有的配置,添加以下信息
<?xml version="1.0"?>
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>s101</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.ha.enabled</name>
<value>true</value>
</property>
<property>
<name>yarn.resourcemanager.cluster-id</name>
<value>mycluster2</value>
</property>
<property>
<name>yarn.resourcemanager.ha.rm-ids</name>
<value>rm1,rm2</value>
</property>
<property>
<name>yarn.resourcemanager.hostname.rm1</name>
<value>s101</value>
</property>
<property>
<name>yarn.resourcemanager.hostname.rm2</name>
<value>s105</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address.rm1</name>
<value>s101:8088</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address.rm2</name>
<value>s105:8088</value>
</property>
<property>
<name>yarn.resourcemanager.zk-address</name>
<value>s102:2181,s103:2181,s104:2181</value>
</property>
<property>
<name>yarn.nodemanager.vmem-pmem-ratio</name>
<value>4</value>
</property>
</configuration>
nano masters
删除原有的配置,添加以下信息
s101
s105
nano slaves
删除原有的配置,添加以下信息
s102
s103
s104
修改yarn的启动脚本,使得resourcemanager也配置成高可用模式
cd /soft/hadoop/sbin
nano start-yarn.sh
修改以下代码
"$bin"/yarn-daemons.sh --config $YARN_CONF_DIR --hosts masters start resourcemanager
修改yarn的关闭脚本
cd /soft/hadoop/sbin
nano stop-yarn.sh
修改以下代码
"$bin"/yarn-daemons.sh --config $YARN_CONF_DIR --hosts masters stopresourcemanager
部署zookeeper
1. 使用远程传输软件将文件zookeeper-3.4.10.tar.gz放到/home/centos/downloads下去
2. 将zookeeper-3.4.10.tar.gz解压到/soft目录下
tar -xzvf /home/centos/downloads/zookeeper-3.4.10.tar.gz -C /soft
3. 创建符号链接,使用zk引向zookeeper-3.4.10
cd /soft
ln -s zookeeper-3.4.10 zk
4. 配置环境变量
nano /etc/profile
添加以下信息
#zk环境变量
export ZK_HOME=/soft/zk
export PATH=$PATH:$ZK_HOME/bin
source /etc/profile
5. 修改配置文件名称
cd /soft/zk/conf
mv zoo_sample.cfg zoo.cfg
6. 修改配置文件
nano zoo.cfg
修改
dataDir=/home/centos/zk
添加
server.102=s102:2888:3888
server.103=s103:2888:3888
server.104=s104:2888:3888
7. 在/home/centos/zk下创建myid文件,并指定id号,注意这一步写在后面克隆虚拟机之后!!!!!!!!!!!!!!!!!!!!!!!
3. 克隆
完成上述步骤后,母机涉及到的基本配置就已完成了,接下去开始对母机s100进行克隆,并将之克隆成s101-s105这五台虚拟机,我们使用完整克隆模式,在克隆之前,不要忘记将s100做一个快照,以备后续搭建出错之需
确认基本配置:内存为2GB,处理器个数是8个,并且网络适配器使用网络地址转换模式

右键管理 -> 克隆,一直下一步至以下页面,选择“创建完整克隆” ,点击下一步

将虚拟机名称最后改成s101,然后点击完成

克隆成功!

重复上述步骤,完成s102-s105的克隆过程
依次克隆完成后,接下去需要进行三步操作,以s101为例,分为修改静态IP地址,修改hostname以及建立主机名和IP地址的映射这三步
修改静态IP地址
打开VMware,注意,不使用MTPuTTy,并且以root权限进入,输入指令nano /etc/sysconfig/network-scripts/ifcfg-ens33,将IPADDR最后改为101之后保存退出
修改主机名
nano /etc/hostname,将s100改为s101之后reboot重启虚拟机
对s102-s105重复以上操作
先对s101主机更改hosts文件,更改内容如下:
nano /etc/hosts
添加以下命令
192.168.153.101 s101
192.168.153.102 s102
192.168.153.103 s103
192.168.153.104 s104
192.168.153.105 s105
使用之前写好的xsync.sh脚本将hosts文件同步到所有节点上去,中途需要输入密码
xsync.sh /etc/hosts
4. 配置免密登录
首先配置s101节点到其他4个节点的免密登录
首先进入s101节点
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
ssh-copy-id root@s101
ssh-copy-id root@s102
ssh-copy-id root@s103
ssh-copy-id root@s104
ssh-copy-id root@s105
测试:ssh s103,登录成功!然后exit退出
然后进入s105节点,再用相同的方法配置s105节点到其他节点的免密登录
5. 其他步骤 & 测试启动
在/home/centos/zk下创建myid文件,并指定id号
xcall.sh "mkdir /home/centos/zk"
ssh s102 "echo -n 102 > /home/centos/zk/myid"
ssh s103 "echo -n 103 > /home/centos/zk/myid"
ssh s104 "echo -n 104 > /home/centos/zk/myid"
启动zookeeper,xzk.sh start
启动s102-s104的journalnode:hadoop-daemons.sh start journalnode
格式化namenode:hdfs namenode -format
将s101的ha文件夹发送到s105:scp -r /home/centos/ha root@s105:/home/centos
启动进程:start-all.sh
查看jps进程,发现自动容灾进程并未启动,xcall.sh jps

在zk上初始化数据:hdfs zkfc -formatZK
然后stop-all.sh,xzk.sh stop,再重新开启集群,注意启动zk一定要在启动hadoop之前,再次查看jps进程,xcall.sh jps,所有进程均已启动

查看WebUI页面,s101:50070,成功进入!

查看8088页面,s101:8088,成功进入!

大数据学习笔记——Hadoop高可用完全分布式模式完整部署教程(包含zookeeper)的更多相关文章
- 大数据学习笔记——Hbase高可用+完全分布式完整部署教程
Hbase高可用+完全分布式完整部署教程 本篇博客承接上一篇sqoop的部署教程,将会详细介绍完全分布式并且是高可用模式下的Hbase的部署流程,废话不多说,我们直接开始! 1. 安装准备 部署Hba ...
- 大数据学习笔记——Hadoop编程实战之HDFS
HDFS基本API的应用(包含IDEA的基本设置) 在上一篇博客中,本人详细地整理了如何从0搭建一个HA模式下的分布式Hadoop平台,那么,在上一篇的基础上,我们终于可以进行编程实操了,同样,在编程 ...
- 大数据学习笔记——Hadoop编程实战之Mapreduce
Hadoop编程实战——Mapreduce基本功能实现 此篇博客承接上一篇总结的HDFS编程实战,将会详细地对mapreduce的各种数据分析功能进行一个整理,由于实际工作中并不会过多地涉及原理,因此 ...
- 大数据学习笔记——Hadoop编程之SequenceFile
SequenceFile(Hadoop序列文件)基础知识与应用 上篇编程实战系列中本人介绍了基本的使用HDFS进行文件读写的方法,这一篇将承接上篇重点整理一下SequenceFile的相关知识及应用 ...
- spring cloud(学习笔记)高可用注册中心(Eureka)的实现(二)
绪论 前几天我用一种方式实现了spring cloud的高可用,达到两个注册中心,详情见spring cloud(学习笔记)高可用注册中心(Eureka)的实现(一),今天我意外发现,注册中心可以无限 ...
- 大数据学习之Hadoop快速入门
1.Hadoop生态概况 Hadoop是一个由Apache基金会所开发的分布式系统集成架构,用户可以在不了解分布式底层细节情况下,开发分布式程序,充分利用集群的威力来进行高速运算与存储,具有可靠.高效 ...
- 大数据学习笔记——Java篇之集合框架(ArrayList)
Java集合框架学习笔记 1. Java集合框架中各接口或子类的继承以及实现关系图: 2. 数组和集合类的区别整理: 数组: 1. 长度是固定的 2. 既可以存放基本数据类型又可以存放引用数据类型 3 ...
- 大数据学习笔记——Linux完整部署篇(实操部分)
Linux环境搭建完整操作流程(包含mysql的安装步骤) 从现在开始,就正式进入到大数据学习的前置工作了,即Linux的学习以及安装,作为运行大数据框架的基础环境,Linux操作系统的重要性自然不言 ...
- 大数据学习笔记——Spark完全分布式完整部署教程
Spark完全分布式完整部署教程 继Mapreduce之后,作为新一代并且是主流的计算引擎,学好Spark是非常重要的,这一篇博客会专门介绍如何部署一个分布式的Spark计算框架,在之后的博客中,更会 ...
随机推荐
- JVM的内存回收机制
垃圾回收机制,简称gc.对堆与方法区的对象进行回收,因为java不像c需要编程人员手动clear,虚拟机通过垃圾回收算法,对堆与方法区的对象进行自动回收处理. 1.引用计数法(jvm没有采用,因为当两 ...
- centos7清理矿机木马qw3xT,kpgrbcc
腾讯云报告了root口令被暴力破解,并种了木马kpgrbcc 昨晚找到/usr/bin/ rm -rf kpgrbcc 删除 rm -rf kpgrbcb 删除 并ps -ef | grep kpg ...
- 学习完vue指令 做的一个学生信息录入系统
一.demo实现原理 输入完个人信息后 点击创建用户 数据就会显示在下面的表格中 用到了vue中的数据双向绑定 v-model v-for 还要js正则 数组的unshift splice 等方法 ...
- pycharm的安装流程
以windows版本举例: 1.首先去Pycharm官网,或者直接输入网址:http://www.jetbrains.com/pycharm/download/#section=windows,下载P ...
- alpha week 2/2 Scrum立会报告+燃尽图 01
此作业要求参见https://edu.cnblogs.com/campus/nenu/2019fall/homework/9798 一.小组情况 队名:扛把子 组长:迟俊文 组员:宋晓丽 梁梦瑶 韩昊 ...
- Spring框架AOP学习总结(下)
目录 1. AOP 的概述 2. Spring 基于AspectJ 进行 AOP 的开发入门(XML 的方式): 3.Spring 基于AspectJ 进行 AOP 的开发入门(注解的方式): 4.S ...
- java中sleep()和wait()区别
1,sleep方法是Thread类的静态方法,wait()是Object超类的成员方法 2,sleep()方法导致了程序暂停执行指定的时间,让出cpu该其他线程,但是他的监控状态依然保持者,当指定的时 ...
- Spire.Cloud.Word 添加Word水印(文本水印、图片水印)
概述 Spire.Cloud.Word提供了watermarksApi接口可用于添加水印,包括添加文本水印(SetTextWatermark).图片水印(SetImageWatermark),本文将对 ...
- rep()函数简介
rep()函数:重复 rep(x,...) rep.int(x,times) rep_len(x,length.out) ·x:一个向量(vector),一个因子(factor),一个POSIXct或 ...
- 虚拟化--思杰citrix
目前虚拟化主要有vmware,微软,思杰 一:从硬件搭建开始 硬件需要问的几个问题: a.负载均衡.防火墙.路由器怎么配置? b.新增一块存储的话,怎么新增? 二:安装citrix xen serve ...