安装步骤:

一、准备工作

1.解压文件
  [root@localhost soft]# tar -zxvf hadoop-2.4.1.tar.gz

2.改名:
  [root@localhost soft]# mv hadoop-2.4.1 hadoop 改名
3.关闭防火墙
  iptables防火墙状态: service iptables status
  开启防火墙: service iptables start
  关闭防火墙: service iptables stop
  service iptables stop #临时关闭,重启无效
  chkconfig iptables off #永久关闭,重启生效

4.[root@master Desktop]# vi /etc/sysconfig/network

  NETWORKING=yes
  HOSTNAME=master

  

注意:执行后需要重新启动linux,再进入桌面右键 Open in Terminal就进入master了

  

5. 配置master

  [root@master Desktop]# vi /etc/hosts //注意重启后是要root身份才可以write
  192.168.119.129 master (本机ip地址,可以通过ifconfig查询 要都能平通)

  

  [root@master Desktop]# ping master

  [root@master Desktop]# ping 192.168.119.129

  

6.配置无密钥ssh  

  [root@master Desktop]# cd

  [root@master ~]$ ssh-keygen -t rsa #一直回车生成密钥
  [root@master ~]# cd /root/.ssh
  [root@master .ssh]# cat id_rsa.pub >> authorized_keys

  

  安装完成,关闭即可。

二、配置hadoop

1、配置hadoop /etc/profile
[qq@master Desktop]$ su root
Password:
[root@master Desktop]# cd
[root@master ~]# vi /etc/profile

#set java environment
JAVA_HOME=/soft/jdk1.7.0_79
HADOOP_HOME=/soft/hadoop
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/etc/sbin:$PATH

环境变量放到最后即可。

  

[root@master ~]# source /etc/profile
[root@master ~]#

2、(1)配置hadoop hadoop-env.sh
[root@master ~]# cd /soft
[root@master soft]# cd hadoop
[root@master hadoop]# cd etc
[root@master etc]# cd hadoop
[root@master hadoop]# vi hadoop-env.sh

export JAVA_HOME=/soft/jdk1.7.0_79
export HADOOP_CONF_DIR=/soft/hadoop/etc/hadoop/

配置文件位置:

[root@master hadoop]# source hadoop-env.sh

(2)设置环境变量jdk
1. [root@master hadoop]#  vi ~/.bash_profile

//有以下2行
export JAVA_HOME=/soft/jdk1.7.0_79
export PATH=$JAVA_HOME/bin:$PATH

配置文件位置:

2.[root@master hadoop]# source ~/.bash_profile    //立即生效

3、配置hadoop自身文件
[root@master hadoop]# vi core-site.xml
(1) core-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>

<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>

</configuration>

配置文件位置:

(2) mapred-site.xml
[root@master hadoop]# vi mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>

原文件为空,添加文件位置:

(3) hdfs-site.xml
[root@master hadoop]# vi hdfs-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>

<property>
<name>dfs.name.dir</name>
<value>/soft/hadoop/hdfs/name</value>
<description>namenode上存储hdfs名字空间元数据 </description>
</property>
<property>
<name>dfs.data.dir</name>
<value>/soft/hadoop/hdfs/data</value>
<description>datanode上数据块的物理存储位置</description>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
<description>副本个数,配置默认是3,应小于datanode机器数量</description>
</property>

</configuration>

配置文件位置:

(4) [root@master hadoop]# vi yarn-site.xml

<?xml version="1.0"?>
<configuration>

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>${yarn.resourcemanager.hostname}:8088</value>
</property>

</configuration>

配置文件位置:

4 格式化新的分布式文件系统(hdfs namenode -format 或 hadoop namenode -format)
[root@master hadoop]# cd
[root@master ~]# cd /soft/hadoop/sbin
[root@master sbin]# hadoop namenode -format
.....

17/01/13 23:26:25 INFO common.Storage: Storage directory /soft/hadoop/hdfs/name has been successfully formatted.
17/01/13 23:26:25 INFO namenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 0
17/01/13 23:26:25 INFO util.ExitUtil: Exiting with status 0
17/01/13 23:26:25 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at master/192.168.119.129
************************************************************/

5 启动线程start-all.sh
[root@master sbin]# ./start-all.sh

注:有一个选择yes,一定要选!!!

6 测试安装hadoop成功
[root@master sbin]# jps
5395 DataNode
6926 NodeManager
6837 ResourceManager
7045 Jps
5289 NameNode
5624 SecondaryNameNode

我测试结果为:

[root@master sbin]# jps
3542 NameNode
3886 SecondaryNameNode
4028 ResourceManager
4431 Jps
4121 NodeManager

7.最后在linux的火狐浏览器中 localhost:8088 显示小象即配置成功。

END

图解linux安装hadoop的更多相关文章

  1. python相关软件安装流程图解——linux 安装python3——Python-3.7.1

    请先确保已经安装了虚拟机 python相关软件安装流程图解——虚拟机安装——CentOS-7-x86_64-DVD-1810——CentOS-01下载 https://www.cnblogs.com/ ...

  2. linux安装hadoop 1.2.1

    我的服务器里面会装很多东西,所以我在跟目录下面建立了个doc文档文件夹 1.创建存放软件的doc文件夹 mkdir doc 2.进去doc文件夹进行下载hadoop-1.2.1资源包或者到我的百度云下 ...

  3. 图解linux安装tomcat(附常用命令)

    本例使用的是centos6.5版本,具体内容如下 一.首先到官方下载tomcat服务 http://tomcat.apache.org/download-70.cgi 二.将tomcat上传至linu ...

  4. 图解Linux安装jdk

    测试是否安装成功: 查看Java的版本命令:java -version Windows:查看java版本的方法是:运行--->cmd,输入java –version.注意: linux:终端中输 ...

  5. Hadoop Linux安装

    Hadoop Linux安装 步骤流程 1.硬件准备 2.软件准备(推荐CDH) 3.将Hadoop安装包分发到各个节点下 4.安装JDK 5.修改/etc/hosts配置文件 6.设置SSH免密码登 ...

  6. Linux下Hadoop集群环境的安装配置

    1)安装Ubuntu或其他Linux系统: a)为减少错误,集群中的主机最好安装同一版本的Linux系统,我的是Ubuntu12.04. b)每个主机的登陆用户名也最好都一样,比如都是hadoop,不 ...

  7. Linux下Hadoop的简单安装

    Hadoop 的安装极为简单,一共只有三步:   安装JDK 安装Hadoop 配置Hadoop     1,安装JDK       下载JDK,ftp传到linux或者linux中下载     切换 ...

  8. 在Linux上安装Hadoop

    先决条件: Hadoop是用JAVA写的,所以首先要安装Java.在Ubuntu上安装JDK见:http://blog.csdn.net/microfhu/article/details/766739 ...

  9. Linux上安装Hadoop集群(CentOS7+hadoop-2.8.0)

    1下载hadoop 2安装3个虚拟机并实现ssh免密码登录 2.1安装3个机器 2.2检查机器名称 2.3修改/etc/hosts文件 2.4 给3个机器生成秘钥文件 2.5 在hserver1上创建 ...

随机推荐

  1. getline()函数详解 (2013-03-26 17:19:58)

     学习C++的同学可能都会遇到一个getline()函数,譬如在C++premer中,标准string类型第二小节就是“用getline读取整行文本”.书上给的程序如下: int main() {   ...

  2. 一個在WCF學習中的小教訓(本人非科班菜鳥,此經驗無參考價值,衹是自己的經驗記錄)

    1.关于“ServiceHost 仅支持类服务类型”的解决:   Service属性必须执行,不是接口. 改为下图所示: 解决! (注:按朱哥的方法WCF已经可以通信---截至今天的11:11(例子在 ...

  3. 数据库中的id不会自动 替换,这个应该处理吗。怎么处理,那个是唯一主键

  4. java 任务调度实现的总结

    Timer Timer的核心是Timer和TimerTask,Timer负责设定TimerTask的起始与间隔执行时间,使用者需要建立一个timeTask的继承类,实现run方法,然后将其交给Time ...

  5. Android之SharedPreferences权限

    import android.app.Activity; import android.content.SharedPreferences; import android.os.Bundle; pub ...

  6. FFMPEG-AVFilter研究

    FFMPEG中的libswscale是做像素转换的,但是对于一些复杂的操作,比如添加水印等,这个库就不行了,这时候就要说一下另外一个AVFilter.AVFilter完全可以替代libswscale的 ...

  7. IronPython for ASP.NET 部署注意事项

    用 IronPython for ASP.NET 开发的网站,在部署时,除了发布 bin 目录下的 IronPython.dll, IronMath.dll, Microsoft.Web.IronPy ...

  8. 11g 如何添加,替换,移除,迁移 OCR ?

    一: 增加 裸设备上,创建至少280MB的裸设备,权限是640,属主是root:oinstall共享文件系统 Or NFS,创建空文件,权限是640,属主是root:oinstall root用户执行 ...

  9. Netty,Netty

    Windows防火墙会自动关闭空闲的TCP链接,所以Netty需要心跳,如果发现链接断开需要进行关闭Session: 怎么来理解TCP的流式传输呢? int blocksize = buffer.re ...

  10. 2013 蓝桥杯校内选拔赛 java本科B组(题目+答案)

    一.标题:正则表示     正则表达式表示了串的某种规则或规律.恰当地使用正则表达式,可以使得代码简洁.事半功倍.java的很多API都支持正则表达式作为参数.其中的String.split就是这样. ...