Hadoop集群环境安装
转载请标明出处:
http://blog.csdn.net/zwto1/article/details/45647643;
本文出自:【zhang_way的博客专栏】
工具:
虚拟机virtualbox. JDK hadoop1.1.2
Hadoop集群环境的搭建:
说明:在hadoop伪分布式基础上进行安装集群环境
分布结构:
主节点(1个,是hadoop):NameNode、JobTracker、SecondNameNode
从节点(2个,是hadoop1、hadoop2):DataNode、Tasktracker
Virtuabox里复制出两个节点,作为从节点。改ip.
192.168.56.100
以下命令来使设置生效。
service network restart
注意:当上述命令输入之后,出现了问题,这是delete掉以前的网络连接,重启系统,在自动生成的网络连接里改IP。
改主机名:
vi /etc/sysconfig/network
将HOSTNAME改为hadoop1 ,重启使主机名生效。
如果改主节点的主机名后,要再改:
vi /etc/hosts # 将主机名改掉。这里是DNS映射
Hadoop 里的配置也要改关于主机的部分:
cd /usr/local/Hadoop/conf vi core-site.xml vi mapred-site.xml
另个节点相同操作,对网络进行配置。
把复制的两个节点ssh配置删了。
cd /root/.ssh ls rm–rf *
把/usr/local 下的东西全部删了
cd/usr/local ls rm–rf *
把以前配置的环境变量内容也删了
vi /etc/profile
另个节点相同操作,直接如下操作:
rm -rf/root/.ssh/* rm -rf/usr/local/* vi/etc/profile
各节点重新产生ssh加密文件:
ssh-keygen –t rsa [root@hadoop1local]# cd /root/.ssh [root@hadoop1.ssh]# cat id_rsa.pub >> authorized_keys [root@hadoop1.ssh]# ssh localhost Theauthenticity of host 'localhost (::1)' can't be established. RSA keyfingerprint is 2a:35:90:55:ab:b0:74:3c:e4:8a:fc:16:ad:c9:28:21. Are yousure you want to continue connecting (yes/no)? yes Warning:Permanently added 'localhost' (RSA) to the list of known hosts. Lastlogin: Sun May 10 15:05:52 2015 from 192.168.56.1 [root@hadoop1~]#exit
编辑各个节点的/etc/hosts,在该文件中含有所有节点的ip与hostname的映射信息
查看是否ssh可以解析本主机名
不能解析要去/etc/hosts 里进行配置 例如:
192.168.56.101 hadoop1
另一节点是相同配置的
如果改了主节点的主机名的话,也要重新产生ssh机密文件,跟以上的操作是一样的。
各主机要相互访问,ping通。要对hosts 文件进行配置
在hosts文件里加入相应ip 和主机名,例如在主机hadoop里加入
192.168.56.101 hadoop1
192.168.56.102 hadoop2
其他两个节点相同做法。这里有个问题如果是100台机器这样操作不累死了?解决办法:
把一台配置好的,我们可以直接把它复制到另两个节点上。这里涉及ssh的免密码登陆。
两两节点之间的SSH免密码登陆
把hadoop的公钥复制到hadoop1上;
ssh-copy-id -i hadoop1
测试是否可以免密码登陆;
ssh hadoop1
再把hadoop2的公钥复制到hadoop1上;
ssh-copy-id -i hadoop1
测试是否可以免密码登陆;
ssh hadoop2
hadoop和hadoop2节点应该有相同的配置。为了方便,如下操作:
在hadoop1下 :
[root@hadoop1.ssh]# scp /root/.ssh/authorized_keys hadoop:/root/.ssh/ root@hadoop'spassword: authorized_keys 100% 1181 1.2KB/s 00:00
在hadoop里测试看是否复制过去了
more /root/.ssh/authorized_keys
同理复制给hadoop2
把hadoop的hadoop目录下的logs和tmp删除
[root@hadooplocal]# cd hadoop [root@hadoophadoop]# ls bin hadoop-ant-1.1.2.jar ivy README.txt build.xml hadoop-client-1.1.2.jar ivy.xml sbin c++ hadoop-core-1.1.2.jar lib share CHANGES.txt hadoop-examples-1.1.2.jar libexec src conf hadoop-minicluster-1.1.2.jar LICENSE.txt tmp contrib hadoop-test-1.1.2.jar logs webapps docs hadoop-tools-1.1.2.jar NOTICE.txt [root@hadoophadoop]# rm -rf logs/ [root@hadoophadoop]# rm -rf tmp/
把hadoop中的jdk、hadoop文件夹复制到hadoop1和hadoop2节点
scp –r /usr/local/jdk Hadoop1:/usr/local/ scp –r /usr/local/hadoop Hadoop1:/usr/local/ scp –r /usr/local/jdk Hadoop2:/usr/local/ scp –r /usr/local/hadoop Hadoop2:/usr/local/
把hadoop的/etc/profile复制到hadoop1和hadoop2节点,在目标节点中执行source /etc/profile
[root@hadooplocal]# scp /etc/profile hadoop1:/etc/ profile 100% 1986 1.9KB/s 00:00 [root@hadoop1local]# source /etc/profile [root@hadooplocal]# scp /etc/profile hadoop2:/etc/ profile 100% 1986 1.9KB/s 00:00 [root@hadoop2~]# source /etc/profile
编辑hadoop的配置文件slaves,改为从节点的hostname,分别是hadoop1和hadoop2
[root@hadooplocal]# cd hadoop/conf [root@hadoopconf]# vi slaves
格式化
在hadoop节点执行:
hadoop namenode –format
启动
在hadoop节点执行start-all.sh
浏览器查看启动成功后的界面:
注:对于配置文件core-site.xml和mapred-site.xml在所有节点中都是相同的内容。
如何将SecondaryNameNode 和NameNode分布在不同的节点上?
在hadoop 节点下,修改masters内容
[root@hadoopconf]# vi masters
比如将里面的localhost改为Hadoop1
效果如下:
Hadoop:
[root@hadoopconf]# jps
7008JobTracker
6836NameNode
7105 Jps
Hadoop1:
[root@hadoop1local]# jps
6315DataNode
6470TaskTracker
6561 Jps
6384SecondaryNameNode
动态的增加一个hadoop节点
1) 配置新节点的环境
2) 把新节点的hostname配置到主节点的slaves文件中
3) 在新节点,启动进程
hadoop-daemon.sh start datanode hadoop-daemon.sh start tasktracker
4)在主节点执行脚本
hadoop dfsadmin -refresh Nodes
动态的下架一个hadoop节点
模拟:
[root@hadoopconf]# jps 7008JobTracker 7203DataNode 7284TaskTracker 6836NameNode 7401 Jps [root@hadoopconf]# kill -9 7203
在浏览器界面会看到hadoop的lastcontact值会变大,启动datanode它会向namenode汇报,如果联系不上,值就会变大,该值为本次汇报的时间 –上次联系的时间。
安全模式
安全模式下 不可以增删改,但可以查看
如下方式可以查看是否在安全模式下
[root@hadoopconf]# hadoop dfsadmin -safemode get Safe modeis OFF
如何进入进入安全模式如下:
[root@hadoopconf]# hadoop dfsadmin -safemode enter Safe modeis ON [root@hadoopconf]# hadoop dfsadmin -safemode get Safe modeis ON
离开安全模式:
[root@hadoopconf]# hadoop dfsadmin -safemode leave Safe modeis OFF [root@hadoopconf]# hadoop dfsadmin -safemode get Safe modeis OFF
hadoop 伪分布模式搭建(上) http://blog.csdn.net/zwto1/article/details/44002083
hadoop伪分布模式搭建(下) http://blog.csdn.net/zwto1/article/details/44020263
Hadoop集群环境安装的更多相关文章
- hadoop集群环境搭建之zookeeper集群的安装部署
关于hadoop集群搭建有一些准备工作要做,具体请参照hadoop集群环境搭建准备工作 (我成功的按照这个步骤部署成功了,经实际验证,该方法可行) 一.安装zookeeper 1 将zookeeper ...
- hadoop集群环境搭建之安装配置hadoop集群
在安装hadoop集群之前,需要先进行zookeeper的安装,请参照hadoop集群环境搭建之zookeeper集群的安装部署 1 将hadoop安装包解压到 /itcast/ (如果没有这个目录 ...
- CentOS7 安装Hadoop集群环境
先按照上一篇安装与配置好CentOS以及zookeeper http://www.cnblogs.com/dopeter/p/4609276.html 本章介绍在CentOS搭建Hadoop集群环境 ...
- Hadoop集群搭建安装过程(三)(图文详解---尽情点击!!!)
Hadoop集群搭建安装过程(三)(图文详解---尽情点击!!!) 一.JDK的安装 安装位置都在同一位置(/usr/tools/jdk1.8.0_73) jdk的安装在克隆三台机器的时候可以提前安装 ...
- Hadoop集群搭建安装过程(二)(图文详解---尽情点击!!!)
Hadoop集群搭建安装过程(二)(配置SSH免密登录)(图文详解---尽情点击!!!) 一.配置ssh无密码访问 ®生成公钥密钥对 1.在每个节点上分别执行: ssh-keygen -t rsa(一 ...
- hadoop集群环境搭建准备工作
一定要注意hadoop和linux系统的位数一定要相同,就是说如果hadoop是32位的,linux系统也一定要安装32位的. 准备工作: 1 首先在VMware中建立6台虚拟机(配置默认即可).这是 ...
- hadoop集群环境的搭建
hadoop集群环境的搭建 今天终于把hadoop集群环境给搭建起来了,能够运行单词统计的示例程序了. 集群信息如下: 主机名 Hadoop角色 Hadoop jps命令结果 Hadoop用户 Had ...
- Hadoop集群环境搭建步骤说明
Hadoop集群环境搭建是很多学习hadoop学习者或者是使用者都必然要面对的一个问题,网上关于hadoop集群环境搭建的博文教程也蛮多的.对于玩hadoop的高手来说肯定没有什么问题,甚至可以说事“ ...
- 简单Hadoop集群环境搭建
最近大数据课程需要我们熟悉分布式环境,每组分配了四台服务器,正好熟悉一下hadoop相关的操作. 注:以下带有(master)字样为只需在master机器进行,(ALL)则表示需要在所有master和 ...
随机推荐
- lasy load图片的实现
无意中看到了这篇关于使用LQIP(Low Quality Image Placeholders) 原文链接,方案实现图片加载优化方案.在此实践一把. 1. 方案实现 页面初始化时,img元素初始化时, ...
- Windows Sublime Text 配置Linux子系统(WSL)下的 gcc/g++ 编译环境
0. 简介(若已了解背景可以跳过此部分) Windows 10 Build 14316以上版本中加入了"Windows系统的Linux子系统"(Windows Subsystem ...
- ANTD mobile源码分析 -- popover
最近的开发中要用到很多的各式各样的组件.但是发现ant design mobile(后面简称ANTDM)里很多的资源.于是就分析一下,学习学习. ANTDM直接使用了typescript,没有用ES2 ...
- 将DataSet转化成XML格式的String类型,再转化回来。
/// <summary> /// 获取DataSet的Xml格式 /// </summary> public static string GetDataSetXml(this ...
- 跨域问题jsonp
不得不说的同源政策: 同源策略,它是由Netscape提出的一个著名的安全策略.现在所有支持JavaScript 的浏览器都会使用这个策略.所谓同源是指域名,协议,端口相同.当一个浏览器的两个tab页 ...
- linux memcached Session共享
memcached memcached是高性能的分布式缓存服务器用来集中缓存数据库查询结果,减少数据库访问次数提高动态web应用的响应速度 传统web架构的问题许多web应用都将数据保存在RDBMS中 ...
- R+大地图时代︱ leaflet/leafletCN 动态、交互式绘制地图(遍地代码图)
好久没有学习R的新包了,甚是想念啊! 昨天.今天看到两个极好.不得不学的packages+早上被AWS的服务器整得郁闷ing-于是就来点颜色看看~ 本篇受Lchiffon老师的github启发,对两个 ...
- Caused by: java.lang.ClassNotFoundException: org.hibernate.annotations.common.reflection.MetadataPro
1.错误描述 信息: MLog clients using java 1.4+ standard logging. 2014-7-12 19:29:20 com.mchange.v2.c3p0.C3P ...
- JDBC连接池(三)DBCP连接池
JDBC连接池(三)DBCP连接池 在前面的随笔中提到 了 1.JDBC自定义连接池 2. C3P0连接池 今天将介绍DBCP连接池 第一步要导入jar包 (注意:mysql和mysql 驱动 ...
- 【原】spring boot添加cros全局过滤器
新增一个过滤器类并实现filter接口 public class CorsFilter implements Filter { final static org.slf4j.Logger logger ...