1.首先准备hadoop2.2.0的安装包,从官网获取,略。

2.加压安装包,进行配置。假设hadoop安装到/usr/hadoop-2.2.0目录,则进行如下配置:

(1)/etc/profile配置

export HADOOP_PREFIX=/usr/hadoop-2.2.0

export PATH=$PATH:$HADOOP_PREFIX/bin:$HADOOP_PREFIX/sbin

(2)/usr/hadoop-2.2.0/etc/hadoop下配置文件的配置

core-site.xml配置

<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop.datanode3.com:9000</value>
</property> <property>
<name>io.file.buffer.size</name>
<value>4096</value>
</property> <property>
<name>hadoop.tmp.dir</name>
<value>file:/data/hadoop/temp</value>
</property>
</configuration>

hdfs-site.xml

<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/data/hadoop/dfs/name</value>
</property> <property>
<name>dfs.datanode.data.dir</name>
<value>file:/data/hadoop/dfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property> <property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
</configuration>

yarn-site.xml

<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property> <property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property> <property>
<name>yarn.resourcemanager.address</name>
<value>hadoop.datanode3.com:8032</value>
</property> <property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>hadoop.datanode3.com:8030</value>
</property> <property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>hadoop.datanode3.com:8031</value>
</property> <property>
<name>yarn.resourcemanager.admin.address</name>
<value>hadoop.datanode3.com:8033</value>
</property> <property>
<name>yarn.resourcemanager.webapp.address</name>
<value>hadoop.datanode3.com:8088</value>
</property>
</configuration>

salves文件

hadoop.datanode2.com
hadoop.datanode3.com

master文件

hadoop.datanode3.com

(3)bin/hadoop-env.sh

修改以下两项:

export JAVA_HOME=/usr/java/jdk1.6.0_43
export HADOOP_PID_DIR=/data/hadoop/temp

(4)sbin/yarn-daemon.sh

添加以下一项:

export YARN_PID_DIR=/data/hadoop/temp

3. 至此,配置完成,启动集群。

(1)格式化namenode,执行hdfs namenode -fomat

(2)启动hdfs,执行start-dfs.sh

(3)启动yarn,执行start-yarn.sh

ok,到此集群启动完毕!注意:在(1)中你仔细查看执行过程的输出的话,可能会看到如下的提示

WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

接着你去验证集群的功能,无论执行什么语句都是报这个警告,而且什么语句不能执行。why?

网上一搜发现是因为官方提供的lib目录中.so文件是在32位系统下编译的,如果是64位系统,需要自己下载源码在64位上重新编译,没办法只能自己编译了。

参考:http://tech.ddvip.com/2013-10/1381302137203719.html

http://www.linuxidc.com/Linux/2012-04/59200.htm

4. 编译hadoop源码,生成64bit本地lib

参考:http://www.cnblogs.com/lucius/p/3435296.html

注意:hadoop2.2.0官网提供的源码包中有一个pom.xml的bug,需要修改一下,见jira:https://issues.apache.org/jira/browse/HADOOP-10110

编译完成后,将新生成的lib/hadoop/native下的文件全部覆盖原来的即可,然后注意在/etc/profile中添加:

export JAVA_LIBRARY_PATH=${HADOOP_PREFIX}/lib/native

5.重新启动集群,进行验证。

(1)hdfs功能验证:执行文件的相关操作,没有任何问题

(2)mapreduce功能验证:执行hadoop-2.2.0自带的wordcount程序进行验证,没有任何问题

参考:http://hi.baidu.com/kongxianghe123/item/731aa74762111ae81381da9b

至此,简单hadoop2.x集群已搭建成功!接下来进行HA(高可用)集群配置

6. 配置HA集群

hadoop2.x安装配置的更多相关文章

  1. hadoop2.x 安装配置

    hadoop2.x在系统架构上与hadoop1.x有很大的变化 原文地址: http://www.ibm.com/developerworks/cn/opensource/os-cn-hadoop-y ...

  2. CentOS下Hadoop-2.2.0集群安装配置

    对于一个刚开始学习Spark的人来说,当然首先需要把环境搭建好,再跑几个例子,目前比较流行的部署是Spark On Yarn,作为新手,我觉得有必要走一遍Hadoop的集群安装配置,而不仅仅停留在本地 ...

  3. HADOOP2.2.0安装配置指南

    一.     集群环境搭建 这里我们搭建一个由三台机器组成的集群: Ip地址 用户名/密码 主机名 集群中角色 操作系统版本 192.168.0.1 hadoop/hadoop Hadoop-mast ...

  4. Ubuntu14.04 安装配置Hadoop2.6.0

    目前关于Hadoop的安装配置教程书上.官方教程.博客都有很多,但由于对Linux环境的不熟悉以及各种教程或多或少有这样那样的坑,很容易导致折腾许久都安装不成功(本人就是受害人之一).经过几天不断尝试 ...

  5. 【hadoop之翊】——基于CentOS的hadoop2.4.0伪分布安装配置

    今天总算是把hadoop2.4的整个开发环境弄好了,包括 windows7上eclipse连接hadoop,eclipse的配置和測试弄得烦躁的一逗比了~ 先上一张成功的图片,hadoop的伪分布式安 ...

  6. linux上hadoop2.4.0安装配置

    1 环境准备 安装java-1.6(jdk) 安装ssh 1.1 安装jdk (1)下载安装jdk 在/usr/lib下创建java文件夹,输入命令: cd /usr/lib mkdir java 输 ...

  7. Hadoop2.2集群安装配置-Spark集群安装部署

    配置安装Hadoop2.2.0 部署spark 1.0的流程 一.环境描写叙述 本实验在一台Windows7-64下安装Vmware.在Vmware里安装两虚拟机分别例如以下 主机名spark1(19 ...

  8. Hive on Spark安装配置详解(都是坑啊)

    个人主页:http://www.linbingdong.com 简书地址:http://www.jianshu.com/p/a7f75b868568 简介 本文主要记录如何安装配置Hive on Sp ...

  9. Hadoop的学习--安装配置与使用

    安装配置 系统:Ubuntu14.04 java:1.7.0_75 相关资料 官网 下载地址 官网文档 安装 我们需要关闭掉防火墙,命令如下: sudo ufw disable 下载2.6.5的版本, ...

随机推荐

  1. objective-c中#import和@class的区别

    在Objective-C中,可以使用#import和@class来引用别的类型, 但是你知道两者有什么区别吗? @class叫做forward-class,  你经常会在头文件的定义中看到通过@cla ...

  2. Objective C语言中nil、Nil、NULL、NSNull的区别

    以下内容是基于搜集整理的网上资料,供参考. nil:指向Objective C语言中对象的空指针,其定义值为(id)0. Nil:指向Objective C语言中类(Class)的空指针,其定义值为( ...

  3. 乱码及restful

    1.乱码的解决--通过过滤器来解决乱码:springmvc中提供CharacterEncodingFilter解决post乱码 <filter> <filter-name>Ch ...

  4. 大话Spark(3)-一图深入理解WordCount程序在Spark中的执行过程

    本文以WordCount为例, 画图说明spark程序的执行过程 WordCount就是统计一段数据中每个单词出现的次数, 例如hello spark hello you 这段文本中hello出现2次 ...

  5. Spring中Bean的后置处理器

    以下内容引用自http://wiki.jikexueyuan.com/project/spring/bean-post-processors.html: Bean后置处理器 BeanPostProce ...

  6. connectTimeOut和readTimeout

    网络编程时,经常遇到很多timeout异常,下面是java URLConnection 中经典的2种 timeout参数,这些参数设置不当的话,就会遇到timeout 异常. 1. ConnectTi ...

  7. 【面试 JVM】【第六篇】JVM调优

    六部分内容: 一.内存模型 1.程序计数器,方法区,堆,栈,本地方法栈的作用,保存那些数据 可以画个大图出来,很清晰 jvm内存模型主要指运行时的数据区,包括5个部分. 栈也叫方法栈,是线程私有的,线 ...

  8. OllyDBG找到按钮的处理函数

    最近系统有点慢,就想优化一下,于是下了个XX大师.结果要注册才行,看来可以用来练练手了.OD一下,靠还加了壳,偶就是用一下,就不脱你了.开始在弹出窗口MessageBoxA下断,伊,结果不是用的这个函 ...

  9. c++中c_str()函数

    https://zhidao.baidu.com/question/104592558.html

  10. 数据库系统学习(六)-SQL语言基本操作

    第六讲 SQL语言概述 基本命名操作 关系代数是集合的思想 关系演算是逻辑的思想(数学公式) SQL-86,SQL-89,SQL-92,SQL-99,SQL-2003,2008...发展过程标准 SQ ...