安装步骤:

一、准备工作

1.解压文件
  [root@localhost soft]# tar -zxvf hadoop-2.4.1.tar.gz

2.改名:
  [root@localhost soft]# mv hadoop-2.4.1 hadoop 改名
3.关闭防火墙
  iptables防火墙状态: service iptables status
  开启防火墙: service iptables start
  关闭防火墙: service iptables stop
  service iptables stop #临时关闭,重启无效
  chkconfig iptables off #永久关闭,重启生效

4.[root@master Desktop]# vi /etc/sysconfig/network

  NETWORKING=yes
  HOSTNAME=master

  

注意:执行后需要重新启动linux,再进入桌面右键 Open in Terminal就进入master了

  

5. 配置master

  [root@master Desktop]# vi /etc/hosts //注意重启后是要root身份才可以write
  192.168.119.129 master (本机ip地址,可以通过ifconfig查询 要都能平通)

  

  [root@master Desktop]# ping master

  [root@master Desktop]# ping 192.168.119.129

  

6.配置无密钥ssh  

  [root@master Desktop]# cd

  [root@master ~]$ ssh-keygen -t rsa #一直回车生成密钥
  [root@master ~]# cd /root/.ssh
  [root@master .ssh]# cat id_rsa.pub >> authorized_keys

  

  安装完成,关闭即可。

二、配置hadoop

1、配置hadoop /etc/profile
[qq@master Desktop]$ su root
Password:
[root@master Desktop]# cd
[root@master ~]# vi /etc/profile

#set java environment
JAVA_HOME=/soft/jdk1.7.0_79
HADOOP_HOME=/soft/hadoop
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/etc/sbin:$PATH

环境变量放到最后即可。

  

[root@master ~]# source /etc/profile
[root@master ~]#

2、(1)配置hadoop hadoop-env.sh
[root@master ~]# cd /soft
[root@master soft]# cd hadoop
[root@master hadoop]# cd etc
[root@master etc]# cd hadoop
[root@master hadoop]# vi hadoop-env.sh

export JAVA_HOME=/soft/jdk1.7.0_79
export HADOOP_CONF_DIR=/soft/hadoop/etc/hadoop/

配置文件位置:

[root@master hadoop]# source hadoop-env.sh

(2)设置环境变量jdk
1. [root@master hadoop]#  vi ~/.bash_profile

//有以下2行
export JAVA_HOME=/soft/jdk1.7.0_79
export PATH=$JAVA_HOME/bin:$PATH

配置文件位置:

2.[root@master hadoop]# source ~/.bash_profile    //立即生效

3、配置hadoop自身文件
[root@master hadoop]# vi core-site.xml
(1) core-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>

<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>

</configuration>

配置文件位置:

(2) mapred-site.xml
[root@master hadoop]# vi mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>

原文件为空,添加文件位置:

(3) hdfs-site.xml
[root@master hadoop]# vi hdfs-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>

<property>
<name>dfs.name.dir</name>
<value>/soft/hadoop/hdfs/name</value>
<description>namenode上存储hdfs名字空间元数据 </description>
</property>
<property>
<name>dfs.data.dir</name>
<value>/soft/hadoop/hdfs/data</value>
<description>datanode上数据块的物理存储位置</description>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
<description>副本个数,配置默认是3,应小于datanode机器数量</description>
</property>

</configuration>

配置文件位置:

(4) [root@master hadoop]# vi yarn-site.xml

<?xml version="1.0"?>
<configuration>

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>${yarn.resourcemanager.hostname}:8088</value>
</property>

</configuration>

配置文件位置:

4 格式化新的分布式文件系统(hdfs namenode -format 或 hadoop namenode -format)
[root@master hadoop]# cd
[root@master ~]# cd /soft/hadoop/sbin
[root@master sbin]# hadoop namenode -format
.....

17/01/13 23:26:25 INFO common.Storage: Storage directory /soft/hadoop/hdfs/name has been successfully formatted.
17/01/13 23:26:25 INFO namenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 0
17/01/13 23:26:25 INFO util.ExitUtil: Exiting with status 0
17/01/13 23:26:25 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at master/192.168.119.129
************************************************************/

5 启动线程start-all.sh
[root@master sbin]# ./start-all.sh

注:有一个选择yes,一定要选!!!

6 测试安装hadoop成功
[root@master sbin]# jps
5395 DataNode
6926 NodeManager
6837 ResourceManager
7045 Jps
5289 NameNode
5624 SecondaryNameNode

我测试结果为:

[root@master sbin]# jps
3542 NameNode
3886 SecondaryNameNode
4028 ResourceManager
4431 Jps
4121 NodeManager

7.最后在linux的火狐浏览器中 localhost:8088 显示小象即配置成功。

END

图解linux安装hadoop的更多相关文章

  1. python相关软件安装流程图解——linux 安装python3——Python-3.7.1

    请先确保已经安装了虚拟机 python相关软件安装流程图解——虚拟机安装——CentOS-7-x86_64-DVD-1810——CentOS-01下载 https://www.cnblogs.com/ ...

  2. linux安装hadoop 1.2.1

    我的服务器里面会装很多东西,所以我在跟目录下面建立了个doc文档文件夹 1.创建存放软件的doc文件夹 mkdir doc 2.进去doc文件夹进行下载hadoop-1.2.1资源包或者到我的百度云下 ...

  3. 图解linux安装tomcat(附常用命令)

    本例使用的是centos6.5版本,具体内容如下 一.首先到官方下载tomcat服务 http://tomcat.apache.org/download-70.cgi 二.将tomcat上传至linu ...

  4. 图解Linux安装jdk

    测试是否安装成功: 查看Java的版本命令:java -version Windows:查看java版本的方法是:运行--->cmd,输入java –version.注意: linux:终端中输 ...

  5. Hadoop Linux安装

    Hadoop Linux安装 步骤流程 1.硬件准备 2.软件准备(推荐CDH) 3.将Hadoop安装包分发到各个节点下 4.安装JDK 5.修改/etc/hosts配置文件 6.设置SSH免密码登 ...

  6. Linux下Hadoop集群环境的安装配置

    1)安装Ubuntu或其他Linux系统: a)为减少错误,集群中的主机最好安装同一版本的Linux系统,我的是Ubuntu12.04. b)每个主机的登陆用户名也最好都一样,比如都是hadoop,不 ...

  7. Linux下Hadoop的简单安装

    Hadoop 的安装极为简单,一共只有三步:   安装JDK 安装Hadoop 配置Hadoop     1,安装JDK       下载JDK,ftp传到linux或者linux中下载     切换 ...

  8. 在Linux上安装Hadoop

    先决条件: Hadoop是用JAVA写的,所以首先要安装Java.在Ubuntu上安装JDK见:http://blog.csdn.net/microfhu/article/details/766739 ...

  9. Linux上安装Hadoop集群(CentOS7+hadoop-2.8.0)

    1下载hadoop 2安装3个虚拟机并实现ssh免密码登录 2.1安装3个机器 2.2检查机器名称 2.3修改/etc/hosts文件 2.4 给3个机器生成秘钥文件 2.5 在hserver1上创建 ...

随机推荐

  1. asp.net中关于《%=》《%#》《%》 的用法——(转帖)

    1:在.aspx页面,<% %>标签相当于在.cs页面的代码,也就是说你在.cs文件里面怎样写,就可以在.aspx文件里面的<% %>标签里面怎样写. 2:在.aspx页面,& ...

  2. Linux配置redis服务器

    1.安装redis 2.开启6379端口,使外部机器能够访问 3.

  3. php 微信公众平台开发之微信群发信息

    这篇文章主要为大家详细介绍了php微信公众平台开发之微信群发信息,具有一定的参考价值,感兴趣的小伙伴们可以参考一下 1.目的 完成在微信公众号中群发消息.这里只是完成简单的文字发送.也可以发送语音图片 ...

  4. Hibernate学习---第七节:关联关系

    一.关联关系一对一外键(双向) 1.实体类,代码如下: package learn.hibernate.bean; import java.util.Date; /** * 持久化类设计 * 注意: ...

  5. PyCharm配置过程记录

    也可以通过命令行来上传和下载git bash here 同步最新代码到本地: git fetch git pull 上传文件至git仓库: git commit git push 安装第三方模块方式 ...

  6. poj-2420 A Star not a Tree?(模拟退火算法)

    题目链接: A Star not a Tree? Time Limit: 1000MS   Memory Limit: 65536K Total Submissions: 5219   Accepte ...

  7. I.MX6 FFmpeg 录制视频

    /************************************************************************* * I.MX6 FFmpeg 录制视频 * 说明: ...

  8. Linux下视频流媒体直播服务器搭建详解

    目标: 搭建网络直播流媒体服务器系统(Linux操作系统) 背景: 用于OTT-TV大并发的直播和点播的一套流媒体服务器系统.支持N x 24小时录制回看和直播的服务器端解决方案. 解决方案: l  ...

  9. redis的缓存穿透 缓存并发 缓存失效

    我们在用缓存的时候,不管是Redis或者Memcached,基本上会通用遇到以下三个问题: 缓存穿透 缓存并发 缓存失效 一.缓存穿透 Paste_Image.png Paste_Image.png ...

  10. JS性能之滚动条之外的其他部分

    问题: 如果一个页面宽高比较大,也就是页面需要滚动条来查看其他页面内容,这时候,在滚动条之外的其他部分,是依然处于运行状态. 比如那部分有视频播放,则那些视频虽然在当前窗口看不到,但它们还是会处于播放 ...