一、环境配置

  1. 安装虚拟机vmware,并在该虚拟机机中安装CentOS 6.4;

  2. 修改hostname(修改配置文件/etc/sysconfig/network中的HOSTNAME=hadoop),修改IP到主机名的映射(vi /etc/hosts ,添加 127.0.0.1   hadoop);

  3. 按照JDK,下载jdk1.7.0_60并解压到/soft目录中,然后在/etc/profile中添加  export JAVA_HOME=/soft/jdk1.7.0_60 和 export PATH = $PATH:$JAVA_HOME/bin 保存退出,source /etc/profile

  4. 关闭防火墙 , 查看防护墙状态:service iptables status 看到没有关闭时执行:service iptables stop ,为了防止重启后防火墙再次启动再执行:chkconfig iptables off;

  5. 使用ssh免登录设置,在linux终端输入:ssh-keygen -t rsa 出现提示后一直按回车即可,(本人喜欢root用户登录操作所以生成的公钥文件在 ~/.ssh/ 路径下),cd 到 ~/.ssh/ 目录下并执行 cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 保存退出即可;

  6. www.apache.org网址下载hadoop2.2.0并解压,如解压到/cloud 目录下 执行:tar -zxvf hadoop-2.2.0.tar.gz –C /cloud ,在/etc/profile中添加环境变量HADOOP_HOME:export HADOOP_HOME=/cloud/hadoop-2.2.0 及修改环境变量PATH:export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin;

二 、修改hadoop配置文件

配置文件为/home/hadoop/etc/hadoop目录下的 core-site.xml、hdfs-site.xml、yarn-site.xml 、mapred-site.xml;

    • core-site.xml  

    <configuration>

  <!-- 配置hdfs访问路径,hadoop代表本机IP地址9000为端口-->
          <property>
                <name>fs.defaultFS</name>
                <value>hdfs://hadoop:9000</value>
           </property>

  <!-- 指定hadoop运行时产生文件的存放目录 -->

  <property>
                 <name>hadoop.tmp.dir</name>
                 <value>/cloud/hadoop-2.2.0/temp</value>
           </property>

    </configuration>

    • mapred-site.xml

    <configuration>

       <!-- 指定mr框架为yarn方式 -->        
          <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
          </property>
    </configuration>

    • hdfs-site.xml

    <configuration>

       <!-- 指定namenode在本地磁盘存放数据的位置,并注意创建指定的目录 -->        
          <property>
                <name>dfs.namenode.name.dir</name>
                <value>/cloud/hadoop-2.2.0/namenode</value>
          </property>

       <!-- 指定datanode在本地磁盘存放数据的位置,并注意创建指定的目录 -->        
          <property>
                <name>dfs.datanode.data.dir</name>
                <value>/cloud/hadoop-2.2.0/datanode</value>
          </property>

       <!-- 使用隔离机制时需要ssh免登陆 -->         
          <property>
                <name>dfs.ha.fencing.ssh.private-key-files</name>
                <value>/root/.ssh/id_rsa</value>
          </property>

  <property>
                <name>dfs.permissions</name>
                <value>false</value>
          </property>
    </configuration>

    • yarn-site.xml

    <configuration>

       <!-- 指定resourcemanager地址 -->        
          <property>
                <name>yarn.resourcemanager.hostname</name>
                <value>hadoop</value>
          </property>

       <!-- 指定nodemanager启动时加载server的方式为shuffle server -->         
          <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
          </property>
    </configuration>

    • 在 /cloud/hadoop-2.2.0/etc/hadoop目录下的hadoo-env.sh文件中添加 export JAVA_HOME=/cloud/jdk1.7.0_60      

三、格式化HDFS

在HADOOP_HOME目录下执行:hadoop namenode –format ,看到成功的提示即可;

四、启动hadoop

在HADOOP_HOME目录下执行:start-all.sh

五、验证集群是否启动成功

在Linux终端下执行:jps

结果:

还可以通过浏览器的方式验证
http://hadoop:50070 (hdfs管理界面)
http://hadoop:50030 (yarn管理界面)

Hadoop系列(二)hadoop2.2.0伪分布式安装的更多相关文章

  1. Ubuntu16.04 Hadoop2.6.0伪分布式安装与启动中遇到的问题

    1.安装JDK1.8,下载安装包解压至 /usr/lib/jdk vim /etc/profile #配置路径 export JAVA_HOME= /usr/lib/jdk export JRE_HO ...

  2. hadoop2.2.0伪分布式安装

    修改主机名和IP的映射关系 vi /etc/hosts 192.168.61.134 hadoop 关闭防火墙 #查看防火墙状态 service iptables status #关闭防火墙 serv ...

  3. Hadoop2.5.0伪分布式环境搭建

    本章主要介绍下在Linux系统下的Hadoop2.5.0伪分布式环境搭建步骤.首先要搭建Hadoop伪分布式环境,需要完成一些前置依赖工作,包括创建用户.安装JDK.关闭防火墙等. 一.创建hadoo ...

  4. 琐碎-hadoop2.2.0伪分布式和完全分布式安装(centos6.4)

    环境是centos6.4-32,hadoop2.2.0 伪分布式文档:http://pan.baidu.com/s/1kTrAcWB 完全分布式文档:http://pan.baidu.com/s/1s ...

  5. 在Win7虚拟机下搭建Hadoop2.6.0伪分布式环境

    近几年大数据越来越火热.由于工作需要以及个人兴趣,最近开始学习大数据相关技术.学习过程中的一些经验教训希望能通过博文沉淀下来,与网友分享讨论,作为个人备忘. 第一篇,在win7虚拟机下搭建hadoop ...

  6. hadoop-2.6.0为分布式安装

    hadoop-2.6.0为分布式安装 伪分布模式集群规划(单节点)------------------------------------------------------------------- ...

  7. 【hadoop之翊】——基于CentOS的hadoop2.4.0伪分布安装配置

    今天总算是把hadoop2.4的整个开发环境弄好了,包括 windows7上eclipse连接hadoop,eclipse的配置和測试弄得烦躁的一逗比了~ 先上一张成功的图片,hadoop的伪分布式安 ...

  8. Hadoop2.6.0完全分布式安装

    本文地址:http://www.cnblogs.com/myresearch/p/hadoop-full-distributed-operation.html,转载请注明源地址. 我这边是使用了两台主 ...

  9. Hadoop大数据初入门----haddop伪分布式安装

    一.hadoop解决了什么问题 hdfs 解决了海量数据的分布式存储,高可靠,易扩展,高吞吐量mapreduce 解决了海量数据的分析处理,通用性强,易开发,健壮性 yarn 解决了资源管理调度 二. ...

随机推荐

  1. 深入浅出:Linux设备驱动之字符设备驱

    一.linux系统将设备分为3类:字符设备.块设备.网络设备.使用驱动程序: 字符设备:是指只能一个字节一个字节读写的设备,不能随机读取设备内存中的某一数据,读取数据需要按照先后数据.字符设备是面向流 ...

  2. pyhton3多线程

    from time import ctime,sleep def music(): for i in range(2): print ("I was listening to music. ...

  3. 第一篇 ERP是什么?-从道的层面浅谈我的理解

    世界上称为ERP软件的软件很多,国外的有SAP,ORACLE,国内的有金蝶,用友,浪潮.这些由不同的厂商开发制作的软件总有其软件适用的场合.这个场合就是企业,而且是市场经济中的企业.个人是不会购买ER ...

  4. leetcode:Summary Ranges

    Given a sorted integer array without duplicates, return the summary of its ranges. For example, give ...

  5. 《OD学hadoop》第一周0626 作业二:Linux基础

    一.打包压缩 知识点: tar -zxvf -C PATH tar -jxvf tar -zcvf tar -jcvf tar:打包命令 -z 打包同时gzip压缩 -j 打包同时bzip2 -c 打 ...

  6. UUID的具体用法

    String deleteUuid = UUID.randomUUID().toString(); java.util 类 UUID java.lang.Object java.util.UUID 所 ...

  7. Java好文统计( 引用 )

    1. java 关于类的路径及编译问题 windows 版本:http://www.ibm.com/developerworks/cn/java/j-classpath-windows/ unix & ...

  8. iOS XMPP Framework 中文概述

    本篇文章翻译XMPP Framework中的Overview of the XMPP Framework部分 介绍 The framework is divided into 2 parts: 1. ...

  9. Myeclipse 安装Aptana3.2 插件

    转自(http://www.cnblogs.com/yinger/archive/2011/08/29/2157193.html) 安装步骤: 1.下载aptana3.2 Eclipse Plugin ...

  10. 【英语】Bingo口语笔记(68) - come系列