说明: 搭建环境是VMware10下用的是Linux CENTOS 32位,Hadoop:hadoop-2.4.1  JAVA :jdk7 32位;本文是本人在网络上收集的HADOOP系列视频所附带的课堂笔记(这里直接抄过来的),记录备忘。

补充:1、虚拟机的网络配置,桥接模式:相当于虚拟机与实体机公用一个网卡,所以这种模式下的虚拟机需要联网的话,需要跟实体机一个网段和网关。NAT模式:实体机相当于一个路由器,虚拟机相当于一个内网。

开始前让我们简单修改下LINUX系统的JDK;一般情况下,我们都要将linux自带的OPENJDK卸载掉,然后安装SUN的JDK(下面的代码来源网络,请注意真实自己环境)

<1> 查看已经安装的JAVA版本信息

# java -version 

一般将获得如下信息:

java version "1.6.0"
OpenJDK Runtime Environment (build 1.6.-b09)
OpenJDK -Bit Server VM (build 1.6.-b09, mixed mode)

<2>查看jdk的信息

# rpm -qa|grep java 

一般将获得如下信息:

java-1.4.-gcj-compat-1.4.2.0-40jpp.
java-1.6.-openjdk-1.6.0.0-1.7.b09.el5

<3> 卸载

# yum -y remove java java-1.4.-gcj-compat-1.4.2.0-40jpp.
# yum -y remove java-1.6.-openjdk-1.6.0.0-1.7.b09.el5

然后,就是真正安装HADOOP伪分布的过程,本人亲测成功。

1.准备Linux环境(IP仅作参考)

1.0   点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改subnet ip 设置网段:192.168.1.0 子网掩码:255.255.255.0 -> apply -> ok

回到windows --> 打开网络和共享中心 -> 更改适配器设置 -> 右键VMnet1 -> 属性 -> 双击IPv4 -> 设置windows的IP:192.168.1.100 子网掩码:255.255.255.0 -> 点击确定
在虚拟软件上 --My Computer -> 选中虚拟机 -> 右键 -> settings -> network adapter -> host only -> ok

1.1 修改主机名

vim /etc/sysconfig/network

NETWORKING=yes
HOSTNAME=itcast ### 这里就不修改,也让读者知道真正的作者来源

1.2 修改IP

  两种方式:

  第一种:通过Linux图形界面进行修改(强烈推荐)
  进入Linux图形界面 -> 右键点击右上方的两个小电脑 -> 点击Edit connections -> 选中当前网络System eth0 -> 点击edit按钮 -> 选择IPv4 -> method选择为manual -> 点击add按钮 -> 添加IP:192.168.1.101 子网掩码:255.255.255.0 网关:192.168.1.1 -> apply

  第二种:修改配置文件方式(屌丝程序猿专用)

vim /etc/sysconfig/network-scripts/ifcfg-eth0

DEVICE="eth0"
 BOOTPROTO="static" ###
 HWADDR="00:0C:29:3C:BF:E7"
 IPV6INIT="yes"
 NM_CONTROLLED="yes"
 ONBOOT="yes"
 TYPE="Ethernet"
 UUID="ce22eeca-ecde-4536-8cc2-ef0dc36d4a8c"
 IPADDR="192.168.1.101" ###
 NETMASK="255.255.255.0" ###
 GATEWAY="192.168.1.1" ###

1.3 修改主机名和IP的映射关系

vim /etc/hosts

192.168.1.101 itcast

1.4 关闭防火墙

#查看防火墙状态
service iptables status
#关闭防火墙
service iptables stop
#查看防火墙开机启动状态
chkconfig iptables --list
#关闭防火墙开机启动
chkconfig iptables off

1.5 重启Linux  reboot

 2.安装JDK

2.1 上传alt+p 后出现sftp窗口(使用的SecureCRT),然后

put d:\xxx\yy\ll\jdk-7u_65-i585.tar.gz 

2.2 解压jdk

#创建文件夹
mkdir /home/hadoop/app
#解压
tar -zxvf jdk-7u55-linux-i586.tar.gz -C /home/hadoop/app

2.3 将java添加到环境变量中

vim /etc/profile
#在文件最后添加
export JAVA_HOME=/home/hadoop/app/jdk-7u_65-i585
export PATH=$PATH:$JAVA_HOME/bin
#刷新配置
source /etc/profile

3.安装hadoop2.4.1

先上传hadoop的安装包到服务器上去/home/hadoop/ 注意:hadoop2.x的配置文件$HADOOP_HOME/etc/hadoop 伪分布式需要修改5个配置文件

3.1 配置hadoop

  第一个:hadoop-env.sh

vim hadoop-env.sh
#第27行
export JAVA_HOME=/usr/java/jdk1..0_65

第二个:core-site.xml

<!-- 指定HADOOP所使用的文件系统schema(URI),HDFS的老大(NameNode)的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://weekend-1206-01:9000</value>
</property>
<!-- 指定hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/hadoop-2.4./tmp</value>
</property>

      第三个:hdfs-site.xml   hdfs-default.xml

<!-- 指定HDFS副本的数量 -->
<property>
<name>dfs.replication</name>
<value></value>
</property>

第四个:mapred-site.xml (mv mapred-site.xml.template mapred-site.xml)

vim mapred-site.xml

<!-- 指定mr运行在yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

第五个:yarn-site.xml

<!-- 指定YARN的老大(ResourceManager)的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>weekend--</value>
</property>
<!-- reducer获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>

3.2 将hadoop添加到环境变量

vim /etc/proflie

export JAVA_HOME=/usr/java/jdk1..0_65
export HADOOP_HOME=/itcast/hadoop-2.4.
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile

3.3格式化namenode(是对namenode进行初始化)

hdfs namenode -format (hadoop namenode -format)

3.4启动hadoop

#先启动HDFS
sbin/start-dfs.sh #再启动YARN
sbin/start-yarn.sh

3.5验证是否启动成功

使用jps命令验证
# jps
NameNode
Jps
SecondaryNameNode
NodeManager
ResourceManager
DataNode #http://192.168.1.101:50070 (HDFS管理界面)
#http://192.168.1.101:8088 (MR管理界面)

4.配置ssh免登陆

#生成ssh免登陆密钥
#进入到我的home目录
cd ~/.ssh ssh-keygen -t rsa (四个回车)
执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
将公钥拷贝到要免登陆的机器上
ssh-copy-id localhost

最后,HADOOP就可以正常启动了。

下面一些命令是我自己需要的,请忽略

service network restart

cd /home/hadoop/app/hadoop-2.4./sbin/

/etc/udev/rules.d/-persistent-net.rules
/etc/sysconfig/network-scripts/ifcfg-eth0 . Remove Network Manager from startup Services.
chkconfig NetworkManager off . Add Default Net Manager
chkconfig network on .Stop NetworkManager first
service NetworkManager stop .and then start Default Manager
service network start scp -r /home/hadoop/jdk-7u65-linux-i586.tar.gz root@192.168.2.202:/home/seasky/jdk-7u65-linux-i586.tar.gz
scp -r /home/hadoop/hadoop-2.4..tar.gz root@192.168.2.202:/home/seasky/hadoop-2.4..tar.gz 克隆虚拟机后的修改:

1- 修改主机名     vim /etc/sysconfig/network

2- 修改网卡    # vi /etc/udev/rules.d/70-persistent-net.rules 前面加#注释掉第一个网卡,更改第2个网卡为eth0,记录下mac地址

  3- 修改IP#vi /etc/sysconfig/network-scripts/ifcfg-eth0

4- 添加本机地址 hosts vim /etc/hosts

5- 修改配置Hadoop  core-site.xml yarn-site.xml

   格式化HDFS 以及重置 SSH key

6- 重启 reboot

附件:hadoop-shell.7z

Hadoop伪分布式搭建步骤的更多相关文章

  1. 超详细解说Hadoop伪分布式搭建--实战验证【转】

    超详细解说Hadoop伪分布式搭建 原文http://www.tuicool.com/articles/NBvMv2原原文 http://wojiaobaoshanyinong.iteye.com/b ...

  2. Hadoop伪分布式搭建(一)

     下面内容主要说明在Windows虚拟机上面,怎么搭建一个Hadoop伪分布式,并如何运行wordcount程序和网页查看HDFS文件系统. 1 相关软件下载和安装 APACH官网提供hadoop版本 ...

  3. hadoop 伪分布式搭建

    下载hadoop1.0.4版本,和jdk1.6版本或更高版本:1. 安装JDK,安装目录大家可以自定义,下面是我的安装目录: /usr/jdk1.6.0_22 配置环境变量: [root@hadoop ...

  4. Hadoop伪分布式安装步骤(hadoop0.20.2版本)

    最近在学习hadoop,自己下了个视频教程,他的教学版本是hadoop0.20.2版本,现在的最新版本都到了3.0了,版本虽然有点老,但是还是学了一下,觉得有借鉴的价值. 不废话了,开始介绍: 先说一 ...

  5. Hadoop伪分布式搭建CentOS

    所需软件及版本: jdk-7u80-linux-x64.tar.gz hadoop-2.6.0.tar.gz 1.安装JDK Hadoop 在需在JDK下运行,注意JDK最好使用Oracle的否则可能 ...

  6. hadoop伪分布式搭建

    安装好jdk 减压hadoop压缩包 cd /home/hadoop/hadoop-2.7.3/etc/hadoop vi hadoop-env.sh 文件末尾处添加 jdk环境变量 export J ...

  7. Hadoop简介与伪分布式搭建—DAY01

    一.  Hadoop的一些相关概念及思想 1.hadoop的核心组成: (1)hdfs分布式文件系统 (2)mapreduce 分布式批处理运算框架 (3)yarn 分布式资源调度系统 2.hadoo ...

  8. 大数据攻城狮之Hadoop伪分布式篇

    对于初学大数据的萌新来说,初次接触Hadoop伪分布式搭建的同学可能是一脸萌笔的,那么这一次小编就手把手的教大家在centos7下搭建Hadoop伪分布式. 底层环境: VMware Workstat ...

  9. hadoop2.8 集群 1 (伪分布式搭建)

    简介: 关于完整分布式请参考: hadoop2.8 ha 集群搭建   [七台机器的集群] Hadoop:(hadoop2.8) Hadoop是一个由Apache基金会所开发的分布式系统基础架构.用户 ...

随机推荐

  1. hdu just a hook(线段树,区间修改)

    Just a Hook Time Limit: 4000/2000 MS (Java/Others)    Memory Limit: 32768/32768 K (Java/Others)Total ...

  2. javascript string对象的属性与方法

    一 创建string对象 new string('string'); 更直接的定义方法是var str = 'string'; 二 string属性 1.constructor 2.lenght 字符 ...

  3. 在 .pro里加入 QMAKE_CXXFLAGS += /MP 将并行编译,加快编译速度(姚冬的办法)

    但是只对VC编译器有效果. 另外还可以自己设置stdafx.h文件 http://www.zhihu.com/question/23045749

  4. 将窗体显示在 PageControl 上

    var AWinControl:TPageControl; begin AWinControl := PageControl1; if frmAbout = nil then Exit; frmAbo ...

  5. BFS visit tree

    There are two ways to conduct BFS on tree. Solution 1 -- Given level Use recursion to find given lev ...

  6. Code Generation and T4 Text Templates

    Code Generation and T4 Text Templates Code Generation and T4 Text Templates

  7. 二十七、Java图形化界面设计——容器(JFrame)

    摘自http://blog.csdn.net/liujun13579/article/details/7756729 二十七.Java图形化界面设计--容器(JFrame) 程序是为了方便用户使用的, ...

  8. HDU 1559 最大子矩阵 (DP)

    题目地址:pid=1559">HDU 1559 构造二维前缀和矩阵.即矩阵上的点a[i][j]表示左上方的点为(0,0),右下方的点为(i,j)的矩阵的和.然后枚举每一个矩阵的左上方的 ...

  9. 并查集+二分-hdu-4750-Count The Pairs

    题目链接: http://acm.hdu.edu.cn/showproblem.php?pid=4750 题目大意: 给一无向图,n个点,m条边,每条边有个长度,且不一样.定义f(i,j)表示从节点i ...

  10. 从一段代码看fork()函数及其引发的竞争

    首先来看一段从<UNIX环境高级编程>中摘录的一段很有意思的代码.借此我们再来谈谈fork()函数的一些问题. #include "apue.h" static voi ...