Hadoop2.2.0 手动切换HA环境搭建
ssh-copy-id -i hadoop5含义:
节点hadoop4上执行ssh-copy-id -i hadoop5的含义是把hadoop4上的公钥id_rsa.pub的内容追加到hadoop5的授权文件authorized_keys中。
zookeeper在hadoop2中实现的一个作用是HA的自动切换。
journalnode是实现active和standby两个数据节点的数据同步。
搭建手工切换的HA (比hadoop1集群搭建多了一个journalnode)
机器分配:
namenode:hadoop4,hadoop5
datanode:hadoop4,hadoop5,hadoop6
journalnode:hadoop4,hadoop5,hadoop6,仅仅是为了实现HA,和集群没有任何关系,最少三个机器,奇数个
resourcemanager:hadoop4
nodemanager:hadoop4,hadoop5,hadoop6
1.1 配置文件:(hadoop-env.sh,core-site.xml,hdfs-site.xml,yarn-site.xml,mapred-site.xml)
1.1.1 hadoop-env.sh 修改JAVA_HOME
export JAVA_HOME=/usr/local/jdk
1.1.2 core-site.xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://cluster1</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
</property>
1.1.3 hdsf-site.xml
<!-- 副本数 默认值3个 -->
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<!-- 配置有几个集群 -->
<property>
<name>dfs.nameservices</name>
<value>cluster1</value>
</property>
<!-- 指定集群cluster1具有哪些namenode节点,这里是逻辑名称,不重复即可 -->
<property>
<name>dfs.ha.namenodes.cluster1</name>
<value>hadoop101,hadoop102</value>
</property>
<!-- 指定hadoop101RPC的地址 -->
<property>
<name>dfs.namenode.rpc-address.cluster1.hadoop101</name>
<value>hadoop4:9000</value>
</property>
<!-- 指定hadoop101http的地址 -->
<property>
<name>dfs.namenode.http-address.cluster1.hadoop101</name>
<value>hadoop4:50070</value>
</property>
<!-- 指定hadoop102RPC的地址 -->
<property>
<name>dfs.namenode.rpc-address.cluster1.hadoop102</name>
<value>hadoop5:9000</value>
</property>
<!-- 指定hadoop102http的地址 -->
<property>
<name>dfs.namenode.http-address.cluster1.hadoop102</name>
<value>hadoop5:50070</value>
</property>
<!-- 是否启用自动故障恢复,即namenode出故障时,是否自动切换到另一台namenode-->
<property>
<name>dfs.ha.automatic-failover.enabled.cluster1</name>
<value>false</value>
</property>
<!-- 指定cluster1的两个namenode共享edits文件目录时,使用journalnode集群信息 -->
<property>
<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://hadoop4:8485;hadoop5:8485;hadoop6:8485/cluster1</value>
</property>
<!-- 指定journalnode集群在对namenode的目录进行共享时,自己存储数据的磁盘路径 -->
<property>
<name>dfs.journalnode.edits.dir</name>
<value>/usr/local/hadoop/tmp/journal</value>
</property>
<!-- 需要namenode切换,使用ssh进行切换 -->
<property>
<name>dfs.ha.fencing.methods</name>
<value>sshfence</value>
</property>
<!-- 使用ssh进行故障切换,使用的密钥存储位置 -->
<property>
<name>dfs.ha.fencing.ssh.private-key-files</name>
<value>/root/.ssh/id_rsa</value>
</property>
<!-- 指定cluster1出故障时,哪个实现类负责执行故障切换 -->
<property>
<name>dfs.client.failover.proxy.provider.cluster1</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
hdsf-site.xml 配置
1.1.4 yarn-site.xml
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop4</value>
</property> <property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
1.1.5 mapred-site.xml
重命名mapred-site.xml.template 为mapred-site.xml
mv mapred-site.xml.template mapred-site.xml
<!-- 指定mapreduce运行环境时yarn,和hadoop1不同的地 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
1.1.6 slaves
hadoop4
hadoop5
hadoop6
1.1.7 把hadoop4上的hadoop文件夹复制到hadoop5、hadoop6节点
直接复制:
scp -rq hadoop hadoop5:/usr/local/ r:是否强制覆盖 q:安静
也可以写一个脚本:
vi bcp.sh
#!/bin/sh
for((i=5;i<=6;i++));
do
scp -rq /usr/local/$1 hadoop$i:/usr/local/$2
echo "copy done at hadoop$i"
done
执行:
chmod u+x bcp.sh
bcp.sh hadoop .
1.2 启动journalnode集群
在hadoop4、hadoop5、hadoop6上分别执行hadoop/sbin/hadoop-daemon.sh start journalnode
1.3 格式化namenode,启动namenode
hadoop4上执行格式化:hadoop/bin/hdfs namenode -format
hadoop4上执行 hadoop/sbin/hadoop-daemon.sh start namenode
hadoop5上执行 hadoop/bin/hdfs namenode -bootstrapStandby
hadoop5上执行 hadoop/sbin/hadoop-daemon.sh start namenode
将hadoop4上standby状态的转换为active状态
hadoop/bin/hdfs haadmin -failover --forceactive hadoop101 hadoop102 forceactive:将一个转成active,forcefence:将状态互换
ll -h :查看文件大小
1.4 启动datanode
在hadoop4上执行hadoop/sbin/hadoop-daemons.sh start datanode
hadoop5格式化命令,实际上是把hadoop4上的fsimage和edits两个文件copy到hadoop5上
1.5 启动resourcemanager和nodemanager
在hadoop4上执行hadoop/sbin/start-yarn.sh start resourcemanager
和原来的集群相比多了一个HA,HA由我们的journalnode集群实现,
Hadoop2.2.0 手动切换HA环境搭建的更多相关文章
- Hadoop2.2.0 自动切换HA环境搭建
自动切换的HA,比手动切换HA集群多了一个zookeeper集群 机器分配: zookeeper:hadoop4,hadoop5,hadoop6 namenode:hadoop4,hadoop5 da ...
- hadoop2.7.3+spark2.1.0+scala2.12.1环境搭建(4)SPARK 安装
hadoop2.7.3+spark2.1.0+scala2.12.1环境搭建(4)SPARK 安装 一.依赖文件安装 1.1 JDK 参见博文:http://www.cnblogs.com/liugh ...
- hadoop-2.6.0集群开发环境配置
hadoop-2.6.0集群开发环境配置 一.环境说明 1.1安装环境说明 本例中,操作系统为CentOS 6.6, JDK版本号为JDK 1.7,Hadoop版本号为Apache Hadoop 2. ...
- Windows Server 2003 IIS6.0+PHP5(FastCGI)+MySQL5环境搭建教程
准备篇 一.环境说明: 操作系统:Windows Server 2003 SP2 32位 PHP版本:php 5.3.14(我用的php 5.3.10安装版) MySQL版本:MySQL5.5.25 ...
- Cocos2dx-3.0版本 从开发环境搭建(Win32)到项目移植Android平台过程详解
作为重量级的跨平台开发的游戏引擎,Cocos2d-x在现今的手游开发领域占有重要地位.那么问题来了,作为Cocos2dx的学习者,它的可移植特性我们就需要掌握,要不然总觉得少一门技能.然而这个时候各种 ...
- Apache Spark1.1.0部署与开发环境搭建
Spark是Apache公司推出的一种基于Hadoop Distributed File System(HDFS)的并行计算架构.与MapReduce不同,Spark并不局限于编写map和reduce ...
- Selenium win7+selenium2.0+python+JetBrains PyCharm环境搭建
win7+selenium2.0+python+JetBrains PyCharm环境搭建 by:授客 QQ:1033553122 步骤1:下载python 担心最新版的支持不太好,这里我下载的是py ...
- SDL2.0的VS开发环境搭建
SDL2.0的VS开发环境搭建 [前言] 我是用的是VS2012,VS的版本应该大致一样. [开发环境搭建] >>>SDL2.0开发环境配置:1.从www.libsdl.org 下载 ...
- (一)windows7下solr7.1.0默认jetty服务器环境搭建
windows7下solr7.1.0默认jetty服务器环境搭建 1.下载solr solr7官网地址:http://lucene.apache.org/solr/ jdk8官网地址:http://w ...
随机推荐
- ubuntu下启动和关闭tomcat的简单方法
在ubuntu下面,我们安装tomcat可以有两种方式[1]用aptitude安装aptitude install tomcat6 [2]免安装版从apache tomcat 网站下载apache-t ...
- dotfuscator初步
从此链接下载的http://www.uzzf.com/soft/85836.html 1.安装之前,先去控制面板将VS自带的dotfuscator卸载掉 2.关闭360安全卫士 3.安装下载的程序 安 ...
- [CFGym101061G] Repeat it(逆元)
题目链接:http://codeforces.com/gym/101061/problem/G 题意:给一个数字n,让你重复m次,求最后这个数对1e9+7取模的结果. 思路:设数字n长度为k,重复m次 ...
- 对于json对像,怎么遍历json对象的所有key,在使用json对象时,如果无法知道key,怎么通过key变量来获取值
对于json对像,怎么遍历json对象的所有key,在使用json对象时,如果无法知道key,怎么通过key变量来获取值?请参阅下面的关键代码: <html> <head> & ...
- HeadFirst jsp 02 (体系结构)
当请求到来时, 必须有人实例化 servlet, 或者至少建立一个新的线程来处理这个请求. 必须有人调用 servlet 的 doPost()或 doGet()方法. 另外还的有人管理 servlet ...
- laravel中的命名公约规范及relation N+1问题
User: model ; users: 表名: user_id 键值 relation: public function tasks(){return $this->belongsToMa ...
- UVa 10361 Automatic Poetry
Automatic Poetry Input: standard input Output: standard output Time Limit: 2 seconds Memory Limit: 3 ...
- LA 4725 (二分) Airport
题意: 有W.E两个跑道,在每个时刻每个跑道的飞机都从0开始编号,而且每个时刻都有Wi和Ei架飞机到达这两个跑道.而且每个时刻只能选择一个跑道的一架飞机起飞.问如何选择才能使得飞机的最大编号最小.(每 ...
- UVa 10020 (最小区间覆盖) Minimal coverage
题意: 数轴上有n个闭区间[ai, bi],选择尽量少的区间覆盖一条指定线段[0, m] 算法: [start, end]为已经覆盖到的区间 这是一道贪心 把各个区间先按照左端点从小到大排序,更新st ...
- WEBUS2.0 In Action - [源代码] - C#代码搜索器
最近由于工作的需要, 要分析大量C#代码, 在数万个cs文件中搜索特定关键词. 这是一项非常耗时的工作, 用Notepad++要运行接近半个小时. 于是我利用WEBUS2.0 SDK创建了一个代码搜索 ...