Linux下安装Hadoop完全分布式(Ubuntu12.10)
Hadoop的安装非常简单,可以在官网上下载到最近的几个版本,最好使用稳定版。本例在3台机器集群安装。hadoop版本如下:
工具/原料
- hadoop-0.20.2.tar.gz
- Ubuntu12.10
安装步骤:
- 1
安装ubuntu
Ubuntu12.10交换空间4G(内存2G)。具体安装过程不赘述。
用户名统一为:hadoop;
组群:hadoop;
机器名:namenode(主节点),datanode1(从节点1),datanode2(从节点2)。
- 2
在Ubuntu下创建hadoop用户组和用户(也可在安装系统时通过界面配置)
1. 创建hadoop用户组;
$ sudo addgroup hadoop
记下这里为 hadoop 用户设置的密码,后面使用 hadoop 用户登录时需要用到。
2. 创建hadoop用户;
$ sudo adduser -ingroup hadoop hadoop
3. 给hadoop用户添加权限,打开/etc/sudoers文件;
$ sudo gedit /etc/sudoers
4. 给hadoop用户赋予root用户同样的权限。
在root ALL=(ALL:ALL) ALL下添加如下内容:
hadoop ALL=(ALL:ALL) ALL
- 3
在Ubuntu下安装JDK
配置环境变量:
$ sudo gedit /etc/profile
在文件的末尾加上如下内容,保存并关闭文件
# for java
export JAVA_HOME=/usr/lib/jvm/jdk1.8.0
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:${JRE_HOME}/bin:$PATH
使设置生效:到此部JDK的配置就都完成了
$ source /etc/profile
为保证正确性,进行简单的测试
$ java -version
输出:
java version "1.8.0"
Java(TM) SE Runtime Environment (build 1.8.0)
Java HotSpot(TM) Server VM
修改默认JDK:
sudo update-alternatives --install /usr/bin/java java /usr/lib/jvm/jdk1.8.0/bin/java 300
sudo update-alternatives --install /usr/bin/javac javac /usr/lib/jvm/jdk1.8.0/bin/javac 300
sudo update-alternatives --install /usr/bin/jar jar /usr/lib/jvm/jdk1.8.0/bin/jar 300
以下两句可选(最好执行):
sudo update-alternatives --config java
sudo update-alternatives --config javac
- 4
修改机器名(这步骤可以省略)
每当ubuntu安装成功时机器名都默认为:ubuntu ,但为了以后集群中能够容易分辨各台服务器,需要给每台机器取个不同的名字。机器名由 /etc/hostname文件决定。
1. 打开/etc/hostname文件;
$ sudo gedit /etc/hostname
2. 将/etc/hostname文件中的ubuntu改为对应机器,如主节点中,修改为"namenode"。 重启生效。
3.修改/etc/hosts文件
$ sudo gedit /etc/hosts
改为如下所示,并且将每台机器的IP设置为固定IP:
- 5
安装ssh服务
这里的ssh不是指三大框架:spring,struts,hibernate,而是一种远程登录协议。
ubuntu一般只是默认安装了 ssh-agent, 可以用如下命令查看:
$ sudo ps -ef | grep ssh
如果只有 ssh-agent 就需要安装openssh-server了。
$ sudo apt-get install ssh openssh-server
- 6
建立ssh无密码登录本机
首先要转换成hadoop用户,执行以下命令:
$ sudo su - hadoop
ssh生成密钥有rsa和dsa两种生成方式,默认情况下采用rsa方式。
1. 创建ssh-key,,这里我们采用rsa方式;
$ ssh-keygen -t rsa -P ""
请注意, ssh-kengen 是用连字符连着的,千万不要分开。问题如下:
按照您的步驟執行的過程中我在ssh -keygen -t rsa -P ""這邊發生的點小狀況輸入之後終端機顯示Bad escape character "ygen"(红字部分就是问题所在,他将 ssh-keygen 分开了。)
(注:回车后会在~/.ssh/下生成两个文件:id_rsa和id_rsa.pub这两个文件是成对出现的)
2. 创建授权文件authorized_keys
进入~/.ssh/目录下,发现开始是没有authorized_keys文件的,可以使用以下两种方法:
(1) 将id_rsa.pub追加到authorized_keys授权文件中;
$ cd ~/.ssh
$ cat id_rsa.pub >> authorized_keys
(2) 复制 id_rsa.pub 为 authorized_keys
$ cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
3. 登录localhost;
$ ssh localhost
4. 执行退出命令(exit或CTRL+D);
- 7
安装hadoop
1. 假设hadoop-0.20.2.tar.gz在桌面,将它复制到安装目录/usr/local/下;
$ sudo cp hadoop-0.20.2.tar.gz /usr/local/
2. 解压hadoop-0.20.2.tar.gz;
$ cd /usr/local
$ sudo tar -zxvf hadoop-0.20.2.tar.gz
3. 将解压出的文件夹改名为hadoop;
$ sudo mv hadoop-0.20.2 hadoop
4. 将该hadoop文件夹的属主用户设为hadoop,
$ sudo chown -R hadoop:hadoop hadoop
5. 打开hadoop/conf/hadoop-env.sh文件;
$ sudo gedit hadoop/conf/hadoop-env.sh
6. 配置conf/hadoop-env.sh(找到#exportJAVA_HOME=...,去掉#,然后加上本机jdk的路径);
export JAVA_HOME=/usr/lib/jvm/jdk1.8.0
7. 打开conf/core-site.xml文件;
$ sudo gedit hadoop/conf/core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://namenode:9000</value>
</property>
</configuration>
8. 打开conf/mapred-site.xml文件;
$ sudo gedit hadoop/conf/mapred-site.xml
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>namenode:9001</value>
</property>
</configuration>
9. 打开conf/hdfs-site.xml文件;
$ sudo gedit hadoop/conf/hdfs-site.xml
<configuration>
<property>
<name>dfs.name.dir</name>
<value>/usr/local/hadoop/datalog1,/usr/local/hadoop/datalog2</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/usr/local/hadoop/data1,/usr/local/hadoop/data2</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
</configuration>
注意:datalog1,datalog2,data1,data2文件夹最好事先建好。
10. 打开conf/masters文件,添加作为secondarynamenode的主机名.
11. 打开conf/slaves文件,添加作为slave的主机名,一行一个。
作者设置如下:
- 8
运行hadoop
1. 进入hadoop目录下,格式化hdfs文件系统,初次运行hadoop时一定要有该操作,
$ cd /usr/local/hadoop/
$ bin/hadoop namenode -format
2. 启动bin/start-all.sh
进入bin目录下, $ ./start-all.sh 关闭:同目录下./stop-all.sh
3. 检测hadoop是否启动成功
$ jps
4. Web查看
http://localhost:50030/ - 一个jobtracker的web访问接口,为的是方便用户查看相关信息。
类似的还有:
http://localhost:50070/ – web UI of theNameNode daemon
http://localhost:50030/ – web UI of theJobTracker daemon
http://localhost:50060/ – web UI of theTaskTracker daemon
END
注意事项
- 集群中所有机器的登录用户名和所属组都要相同,本文用户名为hadoop,组群也为Hadoop。
- 每台机器的IP设置为固定IP,主机名-ip需要在每一台机器里修改对应的hosts文件。
- 注意代码中的粗斜体为具体安装目录,要和实际目录相同。
Linux下安装Hadoop完全分布式(Ubuntu12.10)的更多相关文章
- Linux下配置Hadoop伪分布式环境
1. 准备Linux环境 提示:我用的系统是CentOS 6.4. 1.0点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host- ...
- Linux下配置Hadoop全分布式环境
1. 前提 部署全分布式环境,我们肯定不能在一台服务器上了,这里我用了7台服务器,在VMware上开了7个虚拟机,如下图所示: 我基本配置了一晚上才搞定,第一次配置一般都有错,这时候不妨去到hadoo ...
- 【大数据】Linux下安装Hadoop(2.7.1)详解及WordCount运行
一.引言 在完成了Storm的环境配置之后,想着鼓捣一下Hadoop的安装,网上面的教程好多,但是没有一个特别切合的,所以在安装的过程中还是遇到了很多的麻烦,并且最后不断的查阅资料,终于解决了问题,感 ...
- Linux下安装Hadoop
第一步: Hadoop需要JAVA的支持,所以需要先安装JAVA 查看是否已安装JAVA 查看命令: java -version JRE(Java Runtime Environment),它是你运行 ...
- VMwareWorkstation 平台 Ubuntu14 下安装配置 伪分布式 hadoop
VMwareWorkstation平台Ubuntu14下安装配置伪分布式hadoop 安装VmwareStation 内含注册机. 链接:https://pan.baidu.com/s/1j-vKgD ...
- CentOS下安装hadoop
CentOS下安装hadoop 用户配置 添加用户 adduser hadoop passwd hadoop 权限配置 chmod u+w /etc/sudoers vi /etc/sudoers 在 ...
- Nginx入门篇-基础知识与linux下安装操作
我们要深刻理解学习NG的原理与安装方法,要切合实际结合业务需求,应用场景进行灵活使用. 一.Nginx知识简述Nginx是一个高性能的HTTP服务器和反向代理服务器,也是一个 IMAP/POP3/SM ...
- Linux下安装Zookeeper
Zookeeper是一个协调服务,可以用它来作为配置维护.名字服务.分布式部署: 下面,我来分享一下在Linux下安装Zookeeper的整个步骤,让大家少走弯路. 一.Zookeeper下载 [ro ...
- Linux上安装Hadoop集群(CentOS7+hadoop-2.8.0)--------hadoop环境的搭建
Linux上安装Hadoop集群(CentOS7+hadoop-2.8.0)------https://blog.csdn.net/pucao_cug/article/details/71698903 ...
随机推荐
- Android 工具-adb
Android 工具-adb 版权声明:本文为博主原创文章,未经博主允许不得转载. Android 开发中, adb 是开发者经常使用的工具,是 Android 开发者必须掌握的. Android D ...
- 说一说python的牛比与不爽
本人写了10年php了.今年开始改写python了.不是说php有什么不好,php在自己的势力范围内还是很牛比的.只是我已经不能满足于php那两亩地了. 习惯了脚本,所以很自然就过度到python了. ...
- Oracle-BPM安装详解
H3 BPM安装包括两个部分,基础工作包括安装IIS..net Freamwork基础框架.安装完成之后,主要配置安装包括数据库,H3 BPM 程序.下面详细介绍Oracle与H3 BPM对接安装的整 ...
- CentOS7之按时间段截取指定的Tomcat日志到指定文件的方法
CentOS7之按时间段截取指定的Tomcat日志到指定文件的方法 sed -n '/2016-11-02 15:00:/,/2016-11-02 15:05:/p' catalina.out > ...
- 数据分布转换:非正态 -> 正态
来源:丁香园论坛:SPSS上的把非正态分布数据转换为正态分布数据 一楼 可以应用变量变换的方法,将不服从正态分布的资料转化为非正态分布或近似正态分布.常用的变量变换方法有对数变换.平方根变换.倒数变换 ...
- 【腾讯优测干货分享】如何降低App的待机内存(三)——探索内存增长的原因
本文来自于腾讯优测公众号(wxutest),未经作者同意,请勿转载,原文地址:https://mp.weixin.qq.com/s/8BiKIt3frq9Yv9KV5FXlGw 1.3新问题的进一步挖 ...
- 关于ie6/7下的z-index
z-index这个属性其实在挺多地方都会用到,在百度上搜索也有大量关于z-index的篇幅去阐述这个属性,特别是在ie6下的z-index处理有更多的相关文章,本文就不再围绕z-index这一属性的基 ...
- CS Coder学习asp.net5个月的最大感悟:从http的角度重新认识asp.net(二)——我理解的ajax(二)
啊哈,时隔两个月,才开始写上一篇文章的后续,实在是惭愧.主要是年尾公司又来活了,忙得团团转,而且这段时间在自学mvc.我在上文中,提到过我对mvc框架的初步印象是:相比webform,算是回归了bs本 ...
- Android消息处理机制(Handler、Looper、MessageQueue与Message)
Android是消息驱动的,实现消息驱动有几个要素: 消息的表示:Message 消息队列:MessageQueue 消息循环,用于循环取出消息进行处理:Looper 消息处理,消息循环从消息队列中取 ...
- Egret 集成第三方库 记录
引入第三方库pureMVC 这次我们要使用到一个mvc开发框架-pureMVC,熟悉as3的朋友一定也对这个框架不陌生吧.不熟悉的也没关系,这个框架不是这次的主角.我们从 这里 下载pureMVC的T ...