1.配置hosts 至少四个节点(机器) 每个节点的hosts文件都要配置这些
10.10.64.226 SY-0217
10.10.64.234 SY-0225
10.10.64.235 SY-0226
10.10.65.78 SY-0355

2.对namenode所在节点,设置ssh免密码登录(网上查资料)(ssh SY-0217),免密码登录到任何一个节点,包括他自己

3.每个节点安装jdk,并且放在相同的目录下

4.创建一个普通用户(非root用户)

5.四个节点下载hadoop压缩包并解压到相同目录

6.修改一个节点上的配置文件(ls etc/hadoop/),然后拷贝到其他节点(scp etc/hadoop/* root@SY-0355:/home/dongxicheng/hadoop/hadoop-2.2.0/etc/hadoop),同理拷贝三份

7.需要修改的配置文件有:
a.(vi etc/hadoop/hadoop-env.sh) 第一行的JAVA_HOME=/user/lib/jvm/java-6-sun,(ls /user/lib/jvm/java-6-sun)若目录不为空,说明该节点装机时自带了jdk
b.(vi etc/hadoop/mapred-site.xml)添加三个配置
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>SY-0355:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>SY-0355:19888</value>
</property>
</configuration>
c.(vi etc/hadoop/core-site.xml)添加配置,配置内容必须是active namenode所在机器节点,端口号可用就行
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://SY-0217:8020</value>
</property>
</configuration>
d.(vi etc/hadoop/yarn-site.xml)很多配置,查看视频11分36秒
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>SY-0217</value>
</property>
<property>
<name>yarn.resourcemaneger.address</name>
<value>${yarn.resourcemanager.hostname}:8032</value>
</property>
<property>
<name>yarn.resourcemaneger.scheduler.address</name>
<value>${yarn.resourcemanager.hostname}:8030</value>
</property>
<property>
<name>yarn.resourcemaneger.webapp.address</name>
<value>${yarn.resourcemanager.hostname}:8088</value>
</property>
<property>
<name>yarn.resourcemaneger.webapp.https.address</name>
<value>${yarn.resourcemanager.hostname}:8090</value>
</property>
<property>
<name>yarn.resourcemaneger.resource-tracker.address</name>
<value>${yarn.resourcemanager.hostname}:8031</value>
</property>
<property>
<name>yarn.resourcemaneger.admin.address</name>
<value>${yarn.resourcemanager.hostname}:8033</value>
</property>
。。。。
</configuration>
e.(vi etc/hadoop/hdfs-site.xml)很多配置(特别注意四个节点有些地方不一样),查看视频13分17秒
<configuration>
<property>
<name>dfs.nameservices</name>
<value>hadoop-cluster1,hadoop-cluster2</value>
</property>
<property>
<name>dfs.ha.namenodes.hadoop-cluster1</name>
<value>nn1,nn2</value>
</property>
。。。
</configuration>
f.(vi etc/hadoop/slaves)节点列表 SY-0226,SY-0225,SY-0355

8.启动服务
step1:在各个JournalNode节点上,输入一下命令启动journalnode服务(sbin/hadoop-daemon.sh start journalnode)
step2:在[nn1]上,对其进行格式化,并启动(bin/hdfs namenode -format -clusterId hadoop-cluster),(sbin/hadoop -daemon.sh start namenode)
step3:在[nn2]上,同步nn1的元数据信息(bin/hdfs namenode -bootstrapStandby)
step4:启动[nn2](sbin/hadoop-daemon.sh start namenode)
经过以上四步操作,nn1和nn2均处理standby状态
step5:将[nn1]切换为Active(bin/hdfs haadmin -ns hadoop-cluster1 -transitionToActive nn1)
step6:将[nn1]上,启动所有datanode(sbin/hadoop-daemons.sh start datanode)
关闭Hadoop集群,在[nn1]上输入命令(sbin/stop-dfs.sh)

9.在0217机器上启动所有datanode(sbin/hadoop-daemons.sh start datanode)

10.开始使用(bin/hadoop fs -mkdir /home),(bin/hadoop fs -mkdir /home/dongxicheng)

11.启动yarn,可能会启动失败,需要添加个配置文件fairscheduler.xml(sbin/start-yarn.sh)

12.跑个mapreduce程序(bin/hadoop/mapreduce/hadoop-mapreduce-examples-2.2.0.jar pi 2 1000)

集群搭建_02_集群多机版安装 HDFS HA+Federation-YARN的更多相关文章

  1. MongoDB集群搭建-副本集

    MongoDB集群搭建-副本集 概念性的知识,可以参考本人博客地址: 一.Master-Slave方案: 主从: 二.Replica Set方案: 副本集: 步骤:(只要按步骤操作,100%成功) 1 ...

  2. 分布式缓存技术redis学习系列(四)——redis高级应用(集群搭建、集群分区原理、集群操作)

    本文是redis学习系列的第四篇,前面我们学习了redis的数据结构和一些高级特性,点击下面链接可回看 <详细讲解redis数据结构(内存模型)以及常用命令> <redis高级应用( ...

  3. 分布式缓存技术redis学习(四)——redis高级应用(集群搭建、集群分区原理、集群操作)

    本文是redis学习系列的第四篇,前面我们学习了redis的数据结构和一些高级特性,点击下面链接可回看 <详细讲解redis数据结构(内存模型)以及常用命令> <redis高级应用( ...

  4. 分布式缓存技术redis系列(四)——redis高级应用(集群搭建、集群分区原理、集群操作)

    本文是redis学习系列的第四篇,前面我们学习了redis的数据结构和一些高级特性,点击下面链接可回看 <详细讲解redis数据结构(内存模型)以及常用命令> <redis高级应用( ...

  5. redis高级应用(集群搭建、集群分区原理、集群操作)

    文章主目录 Redis集群简介 Redis集群搭建 Redis集群分区原理 集群操作 参考文档 本文是redis学习系列的第四篇,前面我们学习了redis的数据结构和一些高级特性,点击下面链接可回看 ...

  6. redis系列之4----redis高级应用(集群搭建、集群分区原理、集群操作)

    文章主目录 Redis集群简介 Redis集群搭建 Redis集群分区原理 集群操作 参考文档 本文是redis学习系列的第四篇,前面我们学习了redis的数据结构和一些高级特性,点击下面链接可回看 ...

  7. Apache版本的Hadoop HA集群启动详细步骤【包括Zookeeper、HDFS HA、YARN HA、HBase HA】(图文详解)

    不多说,直接上干货! 1.先每台机器的zookeeper启动(bigdata-pro01.kfk.com.bigdata-pro02.kfk.com.bigdata-pro03.kfk.com) 2. ...

  8. Linux Redis集群搭建与集群客户端实现(Python)

    硬件环境 本文适用的硬件环境如下 Linux版本:CentOS release 6.7 (Final) Redis版本: Redis已经成功安装,安装路径为/home/idata/yangfan/lo ...

  9. Linux Redis集群搭建与集群客户端实现

    硬件环境 本文适用的硬件环境如下 Linux版本:CentOS release 6.7 (Final) Redis版本: Redis已经成功安装,安装路径为/home/idata/yangfan/lo ...

随机推荐

  1. Java IO: OutputStream

    原文链接 作者: Jakob Jenkov 译者: 李璟(jlee381344197@gmail.com) OutputStream类是Java IO API中所有输出流的基类.子类包括Buffere ...

  2. 两种方法使用js读写cookie实现一个底部广告浮层效果

    下面一个案例实现了js实现一个页面浮层并且使用两种方法使用js读写cookie:来实现用户关闭广告的显示状态: 读者可以将下面代码复制到一个html文件试试效果:html的pre标签未两种js实现的方 ...

  3. 吴裕雄--天生自然 R语言开发学习:基本图形(续三)

    #---------------------------------------------------------------# # R in Action (2nd ed): Chapter 6 ...

  4. DocumentFragment的相关用法

    额,今天看了vue1.0关于模板渲染的知识,认识了DocumentFragment这个东西,它相当于一个节点容器,我们对他使用appendChild时,只有它的子节点会被插入进去,它本身不会插入进去, ...

  5. Luogu_2279_[HNOI2003]消防局的设立

    题目描述 2020年,人类在火星上建立了一个庞大的基地群,总共有n个基地.起初为了节约材料,人类只修建了n-1条道路来连接这些基地,并且每两个基地都能够通过道路到达,所以所有的基地形成了一个巨大的树状 ...

  6. [SDOI2008] 洞穴勘测 (LCT模板)

    bzoj 2049 传送门 洛谷P2147 传送门 这个大佬的LCT详解超级棒的! Link-Cut Tree的基本思路是用splay的森林维护一条条树链. splay的森林,顾名思义,就是若干spl ...

  7. 转:CentOS7 常用命令集合

      这两天一直在对CentOS 7.2进行初体验,各种学习命令肿么用,不过其实大多和DOS是一样的,只是命令的表达上可能有点儿不一样,毕竟这些都不是一家出来的嘛~ 废话不多说,直接上命令和解析! 常用 ...

  8. 吴裕雄--天生自然KITTEN编程:演唱会

  9. lvs/dr+keepalived搭建成功后,开启防火墙,虚拟IP不能访问,但是真实IP却可以访问

    lvs/dr+keepalived搭建成功后,开启防火墙,虚拟IP不能访问,但是真实IP却可以访问,如果关闭防火墙虚拟IP就可以访问网站了,这个问题肯定是防火墙在作怪. 经过这两的不懈奋斗和大家的帮助 ...

  10. clearstatcache清除文件状态缓存

    当使用下列任何函数时stat(),lstat(),file_exists(),is_writable(),is_readable(),is_executable(),is_file(),is_dir( ...