CentOS安装配置Hadoop1.2.1

1.下载安装文件

下载2个安装文件

JAVA环境:jdk-6u21-linux-i586.bin

Hadoop环境:hadoop-1.2.1.tar.gz

这里是把jdk安装在/root下,hadoop安装在/etc下面

2.安装jdk

这里jdk-6u21-linux-i586.bin放在/root下

添加执行权限,并解包。

[root@master ~]# cd /root

[root@master 
root]# chmod 777 jdk-6u21-linux-i586.bin

[root@master 
root]# ./ jdk-6u21-linux-i586.bin

接着

2)添加环境变量配置(这里连带hadoop的环境变量一起先设好)

[root@master~]# vi /etc/profile         
(命令行方式较麻烦)

在/etc/profile文件最后加入以下代码,可以直接用文本编辑器打开profile

请注意自己实际的安装路径和名称

exportJAVA_HOME=/root/jdk1.6.0_21

export JRE_HOME=/root/jdk1.6.0_21/jre

export HADOOP_HOME=/etc/hadoop-1.2.1

exportHADOOP_HOME_WARN_SUPPRESS=1

exportCLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$HADOOP_HOME/lib:$CLASSPATH

exportPATH=$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$PATH

让配置生效:[root@master ~]# source/etc/profile

可以输入下面命令测试下Java环境是否成功

[root@master ~]#java –version

2.1
设置/etc/hosts文件以及/etc/sysconfig/network

进入终端

[root@master ~]# hostname

查看hostname是否为network中的值,如果不是

修改hostname的值

[root@master ~]# hostname master

3
给VM虚拟机建立SSH无密码登录

使用ssh服务,首先得确保机器已经完整安装,否则可能出现port 22 refused

之类的情况,当然出现这种情况也可能是防火墙的原因

搜索并安装(一般是装好的,可以不用)

[root@master ~]#yum search openssh*

[root@master ~]#yum install openssh*

生成签名文件

[root@master~]# ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

[root@master~]# cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

[root@master~]# service iptables stop

测试本地SSH无密码登录

[root@centos1~]# ssh master

4、Hadoop安装

文件包hadoop-1.2.1.tar.gz放在etc下面

[root@master ~]# cd /etc

解包并安装

[root@master
 etc]# tar -zvxf hadoop-1.2.1.tar.gz

4.1 Hadoop测试

把hadoop下bin下的hadoop拷贝到根目录/bin下,根目录下可测试hadoop

[root@master ~]#hadoopversion

可以看到hadoop版本信息,若有错误,说明安装过程出现了问题

5、Hadoop配置

配置hadoop安装路径在/conf/core-site.xml、hdfs-site.xml和mapred-site.xml三个文件。

[root@master conf]# vicore-site.xml

<property>

        <name>fs.default.name</name>

        <value>hdfs://master:9000</value>

    </property>

    <property>

        <name>hadoop.tmp.dir</name>

        <value>/usr/local/hadoop/hadooptmp</value>

    </property>

[root@master conf]# vihdfs-site.xml

<property>

<name>fs.default.name</name>

<value>hdfs://master:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/local/hadoop/hadooptmp</value>

</property>

 [root@master conf]# vi mapred-site.xml

<property>

<name>mapred.job.tracker</name>  

<value>master:9001</value>  

</property>

  <property>  

     <name>mapred.local.dir</name>  

     <value>/usr/local/hadoop/mapred/local</value>  

  </property>  

  <property>  

     <name>mapred.system.dir</name>  

     <value>/tmp/hadoop/mapred/system</value>  

  </property>

继续修改一些配置文件

[root@master ~]# vi ~/.bashrc

输入i进入insert模式,移动光标到最后一行,粘贴以下代码(得根据具体的文件名和路径进行修改)

export JAVA_HOME=/root/jdk1.6.0_21

export JRE_HOME=/root/jdk1.6.0_21/jre

export HADOOP_HOME=/etc/hadoop-1.2.1

export HADOOP_DEV_HOME=/etc/hadoop-1.2.1

export HADOOP_COMMON_HOME=/etc/hadoop-1.2.1

export HADOOP_HDFS_HOME=/etc/hadoop-1.2.1

export HADOOP_CONF_DIR=/etc/hadoop-1.2.1/conf

按下esc并输入:wq

 [root@centos1 conf]# vi hadoop-env.sh

打开hadoop下conf文件直接文本编辑加入以下代码更快

export JAVA_HOME=/root/jdk1.6.0_21

export HADOOP_HOME_WARN_SUPPRESS=1

export HADOOP_CLASSPATH=/etc/hadoop-1.2.1:/etc/hadoop-1.2.1/lib

6、配置节点

可以直接用文本编辑器打开那个文件,以下可以直接加入以下代码,

 [root@master conf]# vi masters(命令行方式)

127.0.0.1

[root@master conf]# vi slaves 
(命令行方式)

127.0.0.1

7、SSH登录测试

[root@master ~]# ping master

Ctrl+shift+c终止

[root@master ~]# ssh master

*注意:service iptables stop
每次启动要执行。

每台机器都要能通。

8、运行Hadoop

8、首先执行格式化

先关闭防火墙

[root@masterhadoop-1.2.1]# service iptables stop

再格式化

 [root@master hadoop-1.2.1]# hadoop namenode–format

每次修改xml配置文件都要格式化。格式化过程仔细查看日志

这里注意查看格式化的时候当中一行的信息是否是host=master/127.0.0.1

如果不是那可能将造成:运行wordcount示例时候:

卡在 
map 100% reduce 0%  那里不动。

出现这个问题主要是hostname不一致的原因

 

9、启动hadoop

[root@centos1 hadoop-1.1.1]# start-all.sh

如果出现以下错误

则分别尝试在bin下和hadoop根目录下运行

并尝试service iptables stop后再次开启

10、查看进程

使用jps指令,主机进程,4个。

[root@master hadoop-1.2.1]# jps

4001 Jps

3642 NameNode

3899 JobTracker

3805 SecondaryNameNode

[root@master conf]# jps

3793 Jps

3621 DataNode

3722 TaskTracker

11、查看集群状态

[root@master hadoop-1.1.1]# hadoop dfsadmin 
-report

这里有一个数据节点,可以看到上面是有大小的,如果为0说明一开始hadoop启动失败

 

注意:如果报错“INFOipc.Client: Retrying connect to server”,是因为core-site.xml失效的原因。停止,重启hadoop后,格式化namenode即可。

另外,每次启动VM都要关闭防火墙。

12、列出HDFS文件系统中存在的目录情况

[root@redhat1 conf]# hadoopfs -ls

显示结果:ls: Cannot access .: No such file or directory.

这是这个目录为空所致。

可以改为执行 hadoop fs -ls /

可以看到有一条空结果。

执行hadoop fs -mkdir hello

其中hello为文件夹名字,再执行hadoop fs -ls命令,即可看到结果。

13、测试一下DFS操作

[root@centos1hadoop-1.2.1]# hadoop dfs -mkdir input

[root@centos1hadoop-1.2.1]# hadoop dfs -ls

Found 1 items

drwxr-xr-x  - root supergroup         
02013-01-19 23:24 /user/root/input

14、测试下HDFS文件系统Web浏览器监视

HDFS文件系统状态NameNode,http://master:50070/

15、运行Hadoop自带框架的wordcount示例

15.1、建立数据源文件

/root/test建立2个文本文件,在这两个文本文件输入你想输入的单词

这里随便输入

15.2、发布数据文件至hadoop集群

1、在hdfs中建立一个input目录

[root@master hadoop-1.2.1]#hadoop dfs -mkdir input

2.
将/root/test的文本文件上传到刚建立的input文件夹下

[root@master hadoop-1.2.1]#hadoop dfs –put /root/test/* input

3、执行wordcount程序

执行wordcount程序,并确保hdfs上没有output目录,如果已经有,便会有如下问题:

output目录则执行[root@masterroot]#
hadoop  fs  -rmr putput

[root@master hadoop-1.2.1]#hadoop jar hadoop-examples-1.2.1.jar wordcount input output

14/09/24 17:37:39 INFO input.FileInputFormat: Total input pathsto process : 4

14/09/24 17:37:39 INFO util.NativeCodeLoader: Loaded thenative-hadoop library

14/09/24 17:37:39 WARN snappy.LoadSnappy: Snappy native librarynot loaded

14/09/24 17:37:39 INFO mapred.JobClient: Running job:job_201409241734_0002

14/09/24 17:37:41 INFO mapred.JobClient: 
map 0% reduce 0%

14/09/24 17:37:54 INFO mapred.JobClient: 
map 50% reduce 0%

14/09/24 17:37:59 INFO mapred.JobClient: 
map 75% reduce 0%

14/09/24 17:38:00 INFO mapred.JobClient: 
map 100% reduce 0%

14/09/24 17:38:05 INFO mapred.JobClient:
 map 100% reduce 100%

14/09/24 17:38:06 INFO mapred.JobClient: Job complete:job_201409241734_0002

14/09/24 17:38:06 INFO mapred.JobClient: Counters: 29

14/09/24 17:38:06 INFO mapred.JobClient:  
Job Counters

14/09/24 17:38:06 INFO mapred.JobClient:    
Launched reduce tasks=1

14/09/24 17:38:06 INFO mapred.JobClient:    
SLOTS_MILLIS_MAPS=33257

14/09/24 17:38:06 INFO mapred.JobClient:    
Total time spent by all reduces waitingafter reserving slots (ms)=0

14/09/24 17:38:06 INFO mapred.JobClient:    
Total time spent by all maps waiting afterreserving slots (ms)=0

14/09/24 17:38:06 INFO mapred.JobClient:    
Launched map tasks=4

14/09/24 17:38:06 INFO mapred.JobClient:    
Data-local map tasks=2

14/09/24 17:38:06 INFO mapred.JobClient:    
SLOTS_MILLIS_REDUCES=11496

14/09/24 17:38:06 INFO mapred.JobClient:  
File Output Format Counters

14/09/24 17:38:06 INFO mapred.JobClient:    
Bytes Written=27

14/09/24 17:38:06 INFO mapred.JobClient:  
FileSystemCounters

14/09/24 17:38:06 INFO mapred.JobClient:    
FILE_BYTES_READ=57

14/09/24 17:38:06 INFO mapred.JobClient:    
HDFS_BYTES_READ=442

14/09/24 17:38:06 INFO mapred.JobClient:    
FILE_BYTES_WRITTEN=274717

14/09/24 17:38:06 INFO mapred.JobClient:    
HDFS_BYTES_WRITTEN=27

14/09/24 17:38:06 INFO mapred.JobClient:  
File Input Format Counters

14/09/24 17:38:06 INFO mapred.JobClient:    
Bytes Read=28

14/09/24 17:38:06 INFO mapred.JobClient:  
Map-Reduce Framework

14/09/24 17:38:06 INFO mapred.JobClient:    
Map output materialized bytes=75

14/09/24 17:38:06 INFO mapred.JobClient:    
Map input records=2

14/09/24 17:38:06 INFO mapred.JobClient:    
Reduce shuffle bytes=75

14/09/24 17:38:06 INFO mapred.JobClient:    
Spilled Records=8

14/09/24 17:38:06 INFO mapred.JobClient:    
Map output bytes=43

14/09/24 17:38:06 INFO mapred.JobClient:    
CPU time spent (ms)=6560

14/09/24 17:38:06 INFO mapred.JobClient:    
Total committed heap usage(bytes)=569655296

14/09/24 17:38:06 INFO mapred.JobClient:    
Combine input records=4

14/09/24 17:38:06 INFO mapred.JobClient:    
SPLIT_RAW_BYTES=414

14/09/24 17:38:06 INFO mapred.JobClient:    
Reduce input records=4

14/09/24 17:38:06 INFO mapred.JobClient:    
Reduce input groups=3

14/09/24 17:38:06 INFO mapred.JobClient:    
Combine output records=4

14/09/24 17:38:06 INFO mapred.JobClient:    
Physical memory (bytes) snapshot=617246720

14/09/24 17:38:06 INFO mapred.JobClient:    
Reduce output records=3

14/09/24 17:38:06 INFO mapred.JobClient:    
Virtual memory (bytes) snapshot=1871646720

14/09/24 17:38:06 INFO mapred.JobClient:    
Map output records=4

[root@centos1 hadoop-1.1.1]#hadoop dfs -cat output/part-r-00000

[root@master hadoop-1.2.1]# hadoop dfs -cat output/part-r-00000

guangzhou      
1

hello  
        2

java   
        1

CentOS安装配置Hadoop 1.2.1(伪分布模式)的更多相关文章

  1. 虚拟机Ubuntu(18.04.2)下安装配置Hadoop(2.9.2)(伪分布式+Java8)

    [本文结构] [1]安装Hadoop前的准备工作 [1.1] 创建新用户 [1.2] 更新APT [1.3] 安装SSH [1.4] 安装Java环境 [2]安装和配置hadoop [2.1] Had ...

  2. centos 7下Hadoop 2.7.2 伪分布式安装

    centos 7 下Hadoop 2.7.2 伪分布式安装,安装jdk,免密匙登录,配置mapreduce,配置YARN.详细步骤如下: 1.0 安装JDK 1.1 查看是否安装了openjdk [l ...

  3. 集群安装配置Hadoop具体图解

    集群安装配置Hadoop 集群节点:node4.node5.node6.node7.node8. 详细架构: node4 Namenode,secondnamenode,jobtracker node ...

  4. 阿里云服务器Linux CentOS安装配置(零)目录

    阿里云服务器Linux CentOS安装配置(零)目录 阿里云服务器Linux CentOS安装配置(一)购买阿里云服务器 阿里云服务器Linux CentOS安装配置(二)yum安装svn 阿里云服 ...

  5. 阿里云服务器Linux CentOS安装配置(九)shell编译、打包、部署

    阿里云服务器Linux CentOS安装配置(九)shell编译.打包.部署 1.查询当前目录以及子目录下所有的java文件,并显示查询结果 find . -name *.java -type f - ...

  6. 阿里云服务器Linux CentOS安装配置(八)nginx安装、配置、域名绑定

    阿里云服务器Linux CentOS安装配置(八)nginx安装.配置.域名绑定 1.安装nginx yum -y install nginx 2.启动nginx service nginx star ...

  7. 阿里云服务器Linux CentOS安装配置(七)域名解析

    阿里云服务器Linux CentOS安装配置(七)域名解析 1.购买域名 登录阿里云,左侧菜单点击[域名],然后[域名注册],完成域名购买.(一般首年45元) 2.添加域名解析 在域名列表里点击你的域 ...

  8. 阿里云服务器Linux CentOS安装配置(六)resin多端口配置、安装、部署

    阿里云服务器Linux CentOS安装配置(六)resin多端口配置.安装.部署 1.下载resin包 http://125.39.66.162/files/2183000003E08525/cau ...

  9. 阿里云服务器Linux CentOS安装配置(五)jetty配置、部署

    阿里云服务器Linux CentOS安装配置(五)jetty配置.部署 1.官网下载jetty:wget http://repo1.maven.org/maven2/org/eclipse/jetty ...

随机推荐

  1. 【二食堂】Beta - Scrum Meeting 2

    Scrum Meeting 2 例会时间:5.14 18:30~18:50 进度情况 组员 当前进度 今日任务 李健 1. 还在进行摸索,目前做出了一个demo可以进行简单的划词 issue 1. 继 ...

  2. BUAA_2019_OO_第一单元总结

    一.基于度量来分析自己的程序结构 1.第一次作业 1.1类图: 第一次作业由于比较简单,我采用了面向过程的编程方式.在Polynomail类的构造函数中将项直接求导输出.这样的弊端显而易见,不能进行优 ...

  3. 计算机网络之传输层(传输层提供的服务及功能概述、端口、套接字--Socket、无连接UDP和面向连接TCP服务)

    文章转自:https://blog.csdn.net/weixin_43914604/article/details/105451022 学习课程:<2019王道考研计算机网络> 学习目的 ...

  4. C#笔记2__Char类、String类、StringBuilder类 / 正则表达式 /

    Char类 String类 字符串的格式化:String类的Format方法 StringBuilder类 以上:百度 or 查手册.....

  5. popStar手机游戏机机对战程序

    DFS算,五分钟如果答案没有更新,那个解一般来说就很优了. #include <cstdio> #include <iostream> #include <string. ...

  6. 王爽汇编第十章,call和ret指令

    目录 王爽汇编第十章,call和ret指令 call和ret指令概述: ret和retf ret指令 retf指令 call 和 ret 的配合使用 call指令详解 call原理 call指令所有写 ...

  7. Python里字符串Format时的一个易错“点”

    这是一篇很小的笔记,原因是我做学习通的时候见到了这个题: 当时看了一会儿发现没有符合自己想法的答案,然后就脑袋一热选了C,结果当然是错了... 看了一眼这个format的字符串对象,发现有个 {:7. ...

  8. Laravel/Lumen 分组求和问题 where groupBy sum

    在Laravel中使用分组求和,如果直接使用Laravel各数据库操作方法,应该会得出来如下代码式: DB::table('table_a') ->where('a','=',1) ->g ...

  9. Linux&C———进程间通信

    管道和有名管道 消息队列 共享内存 信号 套接字 由于进程之间的并不会像线程那样共享地址空间和数据空间,所以进程之间就必须有自己特有的通信方式,这篇博客主要介绍自己了解到的几种进程之间的通信方式,内容 ...

  10. Linux usb 6. HC/UDC 测试

    目录 1. 背景介绍 2. Device (gadget zero) 2.1 gadget zero 创建 2.2 SourceSink Function 2.3 Loopback Function ...