原创文章,转载请注明: 转载自http://www.cnblogs.com/tovin/p/3818908.html

一、安装环境

1、系统环境

CentOS  6.4

2、集群机器节点ip

节点一ip:10.100.209.221   (master)
       节点二ip:10.100.209. 222  (slave)
       节点三ip:10.100.209.223   (slave)
       安装时可以基于自己的配置与此进行对应

二、系统环境配置

1、创建hdp用户与hdp用户组

su root

groupadd hdp
        useradd -g hdp hdp
        passwd hdp

2、授予hdp用户sudo权限
        vim /etc/sudoers      增加如下内容

%hdp    ALL=(ALL)       ALL

3、添加host配置

vim /etc/hosts   
        添加ip对应的hostname(根据实际ip填写对应关系)
 

 
4、配置ssh免登录功能(只需在node01  Master机器上执行)

su hdp

ssh-keygen (执行此后一直敲回车即可)

ssh-copy-id -i ~/.ssh/id_rsa.pub hdp@node01

ssh-copy-id -i ~/.ssh/id_rsa.pub hdp@node02

ssh-copy-id -i ~/.ssh/id_rsa.pub hdp@node03

推荐使用ssh-copy-id命令,目前网上很多文章写的方法都是自己一个一个文件的copy,麻烦又费时。

三、软件下载与安装

在集群所有机器上执行下面的操作步骤安装基础软件:

1、软件下载
su hdp

cd /home/hdp

wgethttp://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.2.0/hadoop-2.2.0.tar.gz

wget http://download.oracle.com/otn-pub/java/jdk/7u60-b19/jdk-7u60-linux-x64.rpm

2、java安装

cd /home/hdp

sudo rpm -ivhjdk-7u51-linux-x64.rpm

修改系统默认java版本:

alternatives - -install /usr/bin/javajava /usr/java/jdk1.7.0_51/bin/java 2

alternatives --config java

会出现下面类似界面,选择/usr/java/jdk1.7.0_51/bin/java选项即可

执行: java -version 命令查看java版本是否为1.7.0_51

3、hadoop安装

sudo mv /home/hdp/hadoop-2.2.0.tar.gz/usr/local/

cd /usr/local

sudo tar zxvf hadoop-2.2.0.tar.gz

sudo ln -s hadoop-2.2.0 hadoop

sudo chown -R hdp:hdp hadoop-2.2.0

sudo rm -rf hadoop-2.2.0.tar.gz

四、hadoop部署(单机版)

以node01节点安装为例说明:

1、修改配置文件

cd /usr/local/hadoop/etc/hadoop

vim slaves 添加如下内容

node01

vim core-site.xml 添加如下内容

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://node01:8020/</value>

</property>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/tmp/hadoop-${user.name}</value>

</property>

</configuration>

vim hdfs-site.xml添加如下内容

<configuration>

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>node01:9001</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>/dfs/nn</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>/dfs/dn</value>

</property>

<property>

<name>dfs.webhdfs.enabled</name>

<value>true</value>

</property>

<property>

<name>dfs.permissions</name>

<value>false</value>

</property>

</configuration>

vim mapred-site.xml添加如下内容

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<property>

<name>mapreduce.shuffle.port</name>

<value>8080</value>

</property>

<property>

<name>mapreduce.job.tracker</name>

<value>node01:8021</value>

</property>

<property>

<name>mapreduce.job.tracker.http.address</name>

<value>node01:50030</value>

</property>

</configuration>

vimyarn-site.xml添加如下内容

<configuration>

<property>

<name>yarn.resourcemanager.address</name>

<value>node01:8032</value>

</property>

<property>

<name>yarn.resourcemanager.scheduler.address</name>

<value>node01:8030</value>

</property>

<property>

<name>yarn.resourcemanager.webapp.address</name>

<value>node01:8088</value>

</property>

<property>

<name>yarn.resourcemanager.resource-tracker.address</name>

<value>node01:8031</value>

</property>

<property>

<name>yarn.resourcemanager.admin.address</name>

<value>node01:8033</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

</configuration>

2、启动集群

sudo mkdir /dfs/dn

sudo mkdir /dfs/nn

/usr/local/hadoop/bin/hdfs namenode -format

/usr/local/hadoop/sbin/start-all.sh

jps命令验证NameNode、DataNode、ResourceManager、NodeManager时候都成功启动了

五、hadoop部署(集群版)

以node01为master节点,node02、node03为slave节点安装为例说明:

1、修改配置文件(所有节点都要改) 

cd/usr/local/hadoop/etc/hadoop

vim slaves 添加如下内容

node02

node03

vim core-site.xml、hdfs-site.xml、yarn-site.xml、mapred-site.xml配置文件修改内容与单机版部署一样

sudo mkdir /dfs/dn

sudo mkdir /dfs/nn

2、启动集群(node01节点运行启动脚本)

/usr/local/hadoop/bin/hdfs  namenode -format

/usr/local/hadoop/sbin/start-all.sh

原创文章,转载请注明: 转载自http://www.cnblogs.com/tovin/p/3818908.html

hadoop2.2.0集群搭建与部署的更多相关文章

  1. 分布式Hbase-0.98.4在Hadoop-2.2.0集群上的部署

    fesh个人实践,欢迎经验交流!本文Blog地址:http://www.cnblogs.com/fesh/p/3898991.html Hbase 是Apache Hadoop的数据库,能够对大数据提 ...

  2. centos下hadoop2.6.0集群搭建详细过程

    一 .centos集群环境配置 1.创建一个namenode节点,5个datanode节点 主机名 IP namenodezsw 192.168.129.158 datanode1zsw 192.16 ...

  3. hadoop2.6.0集群搭建

    p.MsoNormal { margin: 0pt; margin-bottom: .0001pt; text-align: justify; font-family: Calibri; font-s ...

  4. CentOS6.4上搭建hadoop-2.4.0集群

    公司Commerce Cloud平台上提供申请主机的服务.昨天试了下,申请了3台机器,搭了个hadoop环境.以下是机器的一些配置: emi-centos-6.4-x86_64medium | 6GB ...

  5. 懒人记录 Hadoop2.7.1 集群搭建过程

    懒人记录 Hadoop2.7.1 集群搭建过程 2016-07-02 13:15:45 总结 除了配置hosts ,和免密码互连之外,先在一台机器上装好所有东西 配置好之后,拷贝虚拟机,配置hosts ...

  6. Ubuntu 12.04下Hadoop 2.2.0 集群搭建(原创)

    现在大家可以跟我一起来实现Ubuntu 12.04下Hadoop 2.2.0 集群搭建,在这里我使用了两台服务器,一台作为master即namenode主机,另一台作为slave即datanode主机 ...

  7. hadoop-2.6.0集群开发环境配置

    hadoop-2.6.0集群开发环境配置 一.环境说明 1.1安装环境说明 本例中,操作系统为CentOS 6.6, JDK版本号为JDK 1.7,Hadoop版本号为Apache Hadoop 2. ...

  8. hadoop2.8 ha 集群搭建

    简介: 最近在看hadoop的一些知识,下面搭建一个ha (高可用)的hadoop完整分布式集群: hadoop的单机,伪分布式,分布式安装 hadoop2.8 集群 1 (伪分布式搭建 hadoop ...

  9. Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作

    前言 安装Apache Hive前提是要先安装hadoop集群,并且hive只需要在hadoop的namenode节点集群里安装即可,安装前需保证Hadoop已启(动文中用到了hadoop的hdfs命 ...

随机推荐

  1. 隐马尔科夫模型及Viterbi算法的应用

    作者:jostree 转载请注明出处 http://www.cnblogs.com/jostree/p/4335810.html 一个例子: 韦小宝使用骰子进行游戏,他有两种骰子一种正常的骰子,还有一 ...

  2. 【WinForm】线程中向listview添加数据

    在使用listview的时候,因为处理的数据较多,为防止在处理数据时出现假死的状态出现卡的情况,我们使用委托进行处理添加数据 定义委托 private delegate void AddListVie ...

  3. elr_memory_pool详解

    Preface Usually, memory allocation of OS is fast, especially the computer has just started. But over ...

  4. php多层数组与对象的转换实例代码

    通过json_decode(json_encode($object)可以将对象一次性转换为数组,但是object中遇到非utf-8编码的非ascii字符则会出现问题,比如gbk的中文,何况json_e ...

  5. php取得当前访问url文件名的几种方法

    php下获取当前访问的文件名的几种方法.推荐函数:一是PHP获取当前页面的网址: dedecms用的也是这个哦. <?php //获得当前的脚本网址 function GetCurUrl() { ...

  6. Oracle查询出最最近一次的一条记录

    需求:从一个表中查询数据,得到的数据为最新的一条记录. -------------建立测试表 --drop table TB ),dtDate date) -------------插入测试数据 ,' ...

  7. 管理口令(P):[INS-30001] ADMIN口令为空之Oracle安装

    在安装oracle database11g 发行版的时候出现下面这个问题. 无论怎么输入密码都提示有问题,都输入得鬼火了!去百度了一下,果然有命名规则的 规则如下:小写字母+数字+大写字母

  8. hive 操作(转)

    1.命令行操作 (1)打印查询头,需要显示设置: set hive.cli.print.header=true; (2)加"--",其后的都被认为是注释,但 CLI 不解析注释.带 ...

  9. 单例模式(Singleton)的6种实现

    1.1.1 摘要 在我们日常的工作中经常需要在应用程序中保持一个唯一的实例,如:IO处理,数据库操作等,由于这些对象都要占用重要的系统资源,所以我们必须限制这些实例的创建或始终使用一个公用的实例,这就 ...

  10. GDB调试详解

    GDB是一个由GNU开源组织发布的.UNIX/LINUX操作系统下的.基于命令行的.功能强大的程序调试工具. GDB中的命令固然很多,但我们只需掌握其中十个左右的命令,就大致可以完成日常的基本的程序调 ...