1机器信息

master192.168.3.10 hadoop/ hadoop

slave1192.168.3.11 hadoop/ hadoop

slave2192.168.3.12 hadoop/ hadoop

(1)创建用户

#sudo adduser hadoop

(2)增加root权限

# vim /etc/sudoers

hadoop ALL=(ALL) ALL

(3)修改以上三台主机的/etc/hosts配置信息(内容一样)

192.168.3.10        hd-master

192.168.3.11        hd-slave1

192.168.3.12        hd-slave2

(4)分别修改/etc/hostname配置文件

2设置master到slave节点的SSH无密码登陆

Ubuntu已经默认安装了SSH

查看是否运行:ps -ef | grep sshd

(1)首先生成hd-master公钥

hadoop@hd-master:~$ ssh localhost

hadoop@hd-master:~/.ssh$ ssh-keygen -t rsa

hadoop@hd-master:~/.ssh$ cat id_rsa.pub >> authorized_keys

(2)将hd-master公钥保存到hd-slave1节点

hadoop@hd-master:~/.ssh$ scp id_rsa.pub hadoop@hd-slave1:/home/hadoop/

(3)在 hd-slave1节点 上将ssh公匙保存到相应位置

hadoop@hd-slave1:~$ cat id_rsa.pub >> ~/.ssh/authorized_keys

(4)同样将hd-master公钥保存到hd-slave2节点,并在hd-slave2节点 上将ssh公匙保存到相应位置

hadoop@hd-master:~/.ssh$ scp id_rsa.pub hadoop@hd-slave2:/home/hadoop/

hadoop@hd-slave2:~$ cat id_rsa.pub >> ~/.ssh/authorized_keys

(5)最后就可以在hd-master节点上就可以无密码SSH登录到hd-slave1、hd-slave2

hadoop@hd-master:~/.ssh$ ssh hd-slave1

hadoop@hd-master:~/.ssh$ ssh hd-slave2

3安装JDK

hadoop@hd-master:~$ java -version

java version "1.8.0_91"

hadoop@hd-slave1:~$ java -version

java version "1.8.0_91"

hadoop@hd-slave2:~$ java -version

java version "1.7.0_40"

4关闭防火墙

查看防护墙状态是否为“不活动”

hadoop@hd-master:~$ sudo ufw status

Status: inactive

5安装hadoop-2.7.3.tar.gz

(1)解压

hadoop@hd-master:~$ tar -zxvf hadoop-2.7.3.tar.gz

(2)在hd-master节点创建以下目录,并属于同一用户及用户组

hadoop@hd-master:~$ mkdir -p  ~/dfs/name && mkdir ~/dfs/data && mkdir ~/tmp

(3)在hd-master节点修改配置文件

A: hadoop-env.sh

export JAVA_HOME=${JAVA_HOME}

B: yarn-env.sh

export JAVA_HOME=${JAVA_HOME}

C: slaves保存所有slave节点

hd-slave1

hd-slave2

D: core-site.xml

<property>

<name>fs.defaultFS</name>

<value>hdfs://hd-master:8010</value>

</property>

<property>

<name>io.file.buffer.size</name>

<value>131072</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>file:/home/hadoop/tmp</value>

<description>Abase for other temporary   directories.</description>

</property>

<property>

<name>hadoop.proxyuser.hadoop.hosts</name>

<value>*</value>

</property>

<property>

<name>hadoop.proxyuser.hadoop.groups</name>

<value>*</value>

</property>

E: hdfs-site.xml

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>hd-master:9001</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>file:/home/hadoop/dfs/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>file:/home/hadoop/dfs/data</value>

</property>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.webhdfs.enabled</name>

<value>true</value>

</property>

F: mapred-site.xml

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<property>

<name>mapreduce.jobhistory.address</name>

<value>hd-master:10020</value>

</property>

<property>

<name>mapreduce.jobhistory.webapp.address</name>

<value>hd-master:19888</value>

</property>

G: yarn-site.xml

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

<value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property>

<property>

<name>yarn.resourcemanager.address</name>

<value>hd-master:8032</value>

</property>

<property>

<name>yarn.resourcemanager.scheduler.address</name>

<value>hd-master:8030</value>

</property>

<property>

<name>yarn.resourcemanager.resource-tracker.address</name>

<value>hd-master:8031</value>

</property>

<property>

<name>yarn.resourcemanager.admin.address</name>

<value>hd-master:8033</value>

</property>

<property>

<name>yarn.resourcemanager.webapp.address</name>

<value>hd-master:8088</value>

</property>

(4)将hd-master节点中的hadoop-2.7.3/复制到hd-slave1与hd-slave2节点。

hadoop@hd-master:~$ scp -r hadoop-2.7.3 hadoop@hd-slave1:/home/hadoop/

hadoop@hd-master:~$ scp -r hadoop-2.7.3 hadoop@hd-slave2:/home/hadoop/

(5)配置环境变量

hadoop@hd-master:~$ cat /etc/environment

PATH="/home/hadoop/hadoop-2.7.3/bin:/home/hadoop/hadoop-2.7.3/sbin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games"

(6)格式化namenode节点

hadoop@hd-master:~$ hdfs namenode -format

(7)启动hdfs

hadoop@hd-master:~$ start-dfs.sh

Starting namenodes on [hd-master]

hd-master: namenode running as process 7177. Stop it first.

hd-slave1: datanode running as process 2958. Stop it first.

hd-slave2: datanode running as process 10759. Stop it first.

Starting secondary namenodes [hd-master]

hd-master: starting secondarynamenode, logging to /home/hadoop/hadoop-2.7.3/logs/hadoop-hadoop-secondarynamenode-hd-master.out

(8)启动yarn

hadoop@hd-master:~$ start-yarn.sh

starting yarn daemons

starting resourcemanager, logging to /home/hadoop/hadoop-2.7.3/logs/yarn-hadoop-resourcemanager-hd-master.out

hd-slave1: starting nodemanager, logging to /home/hadoop/hadoop-2.7.3/logs/yarn-hadoop-nodemanager-hd-slave1.out

hd-slave2: starting nodemanager, logging to /home/hadoop/hadoop-2.7.3/logs/yarn-hadoop-nodemanager-hd-slave2.out

hadoop@hd-master:~$

(9)查看进程

hadoop@hd-master:~$ jps

8324 ResourceManager

7177 NameNode

8667 Jps

8173 SecondaryNameNode

hadoop@hd-slave1:~$ jps

3335 NodeManager

3452 Jps

2958 DataNode

hadoop@hd-slave2:~$ jps

10759 DataNode

13192 Jps

12529 NodeManager

(10)查看集群信息

http://192.168.3.10:8088/cluster

1机器信息

master

192.168.3.10 hadoop/ hadoop

slave1

192.168.3.11 hadoop/ hadoop

slave2

192.168.3.12 hadoop/ hadoop

Uubntu14.04下 Hadoop集群环境搭建的更多相关文章

  1. hadoop集群环境搭建之zookeeper集群的安装部署

    关于hadoop集群搭建有一些准备工作要做,具体请参照hadoop集群环境搭建准备工作 (我成功的按照这个步骤部署成功了,经实际验证,该方法可行) 一.安装zookeeper 1 将zookeeper ...

  2. hadoop集群环境搭建之安装配置hadoop集群

    在安装hadoop集群之前,需要先进行zookeeper的安装,请参照hadoop集群环境搭建之zookeeper集群的安装部署 1 将hadoop安装包解压到 /itcast/  (如果没有这个目录 ...

  3. hadoop集群环境搭建准备工作

    一定要注意hadoop和linux系统的位数一定要相同,就是说如果hadoop是32位的,linux系统也一定要安装32位的. 准备工作: 1 首先在VMware中建立6台虚拟机(配置默认即可).这是 ...

  4. Linux环境下HDFS集群环境搭建关键步骤

    Linux环境下HDFS集群环境搭建关键步骤记录. 介质版本:hadoop-2.7.3.tar.gz 节点数量:3节点. 一.下载安装介质 官网下载地址:http://hadoop.apache.or ...

  5. Hadoop集群环境搭建步骤说明

    Hadoop集群环境搭建是很多学习hadoop学习者或者是使用者都必然要面对的一个问题,网上关于hadoop集群环境搭建的博文教程也蛮多的.对于玩hadoop的高手来说肯定没有什么问题,甚至可以说事“ ...

  6. Linux环境下SolrCloud集群环境搭建关键步骤

    Linux环境下SolrCloud集群环境搭建关键步骤. 前提条件:已经完成ZooKeeper集群环境搭建. 一.下载介质 官网下载地址:http://www.apache.org/dyn/close ...

  7. Linux环境下ZooKeeper集群环境搭建关键步骤

    ZooKeeper版本:zookeeper-3.4.9 ZooKeeper节点:3个节点 以下为Linux环境下ZooKeeper集群环境搭建关键步骤: 前提条件:已完成在Linux环境中安装JDK并 ...

  8. 大数据 -- Hadoop集群环境搭建

    首先我们来认识一下HDFS, HDFS(Hadoop Distributed File System )Hadoop分布式文件系统.它其实是将一个大文件分成若干块保存在不同服务器的多个节点中.通过联网 ...

  9. 简单Hadoop集群环境搭建

    最近大数据课程需要我们熟悉分布式环境,每组分配了四台服务器,正好熟悉一下hadoop相关的操作. 注:以下带有(master)字样为只需在master机器进行,(ALL)则表示需要在所有master和 ...

随机推荐

  1. Jmeter+JDK的安装学习笔记

    第一步:首先从jmeter的官网下载jmeter,目前最新版本为3.3,支持的JDK最高为1.8 下载地址: jmeter:http://jmeter.apache.org/download_jmet ...

  2. 如何设置VMware中Linux命令行环境全屏

    在VMware安装Linux后默认屏幕为640×480,如需修改,则请参考以下步骤.以下以CentOS 6.6安装于VMware Workstation 9中为例说明. 1.默认640x480x16, ...

  3. Git_远程仓库

    到目前为止,我们已经掌握了如何在Git仓库里对一个文件进行时光穿梭,你再也不用担心文件备份或者丢失的问题了. 可是有用过集中式版本控制系统SVN的童鞋会站出来说,这些功能在SVN里早就有了,没看出Gi ...

  4. Linux内核hlist数据结构分析

         在内核编程中哈希链表hlist使用非常多,比方在openvswitch中流表的存储中就使用了(见[1]).hlist的表头仅有一个指向首节点的指针.而没有指向尾节点的指针,这样在有非常多个b ...

  5. 基础设施即服务 PaaS, 平台即服务 IaaS

    基础设施即服务(Infrastructure as a Service,简称IaaS)是消费者使用处理.储存.网络以及各种基础运算资源,部署与执行操作系统或应用程序等各种软件. 客户端无须购买服务器. ...

  6. 74HC125 74HCT125 74LV125 74LVC125

    74HC125; 74HCT125Quad buffer/line driver; 3-state The 74HC125; 74HCT125 is a quad buffer/line driver ...

  7. Oracle 12c on Solaris 10 安装文档

    http://www.orasql.com/blog/archives/2013/08/20/12c_solaris.htm

  8. 在EntityFramework6中管理DbContext的正确方式——2DbContext的默认行为(外文翻译)

    (译者注:使用EF开发应用程序的一个难点就在于对其DbContext的生命周期管理,你的管理策略是否能很好的支持上层服务 使用独立事务,使用嵌套事务,并行执行,异步执行等需求? Mehdi El Gu ...

  9. Windows 8 Metro 应用开发入门(一):开发环境介绍

    摘 要 Windows8已经发布,随之而来的基于WinRT的Metro应用也正向我们走来,正像它所宣传的:光滑.快.现代.看习惯了玻璃.立体风格的应用,或许Metro的简洁能给你留下不一样的体验.Vi ...

  10. NGUI 3.5教程(一)安装NGUI 3.5.8

    写在前面: 网上找的NGUI教程,都是基于2.x版本号的.为了能配合教程学着做,我也是下载了各种NGUI 2.x版本号.可是在导入的时候,或多或少都报错(我用的Unity 的版本号是4.3.2).无奈 ...