一、安装准备



        1、下载hadoop,地址:http://hadoop.apache.org/,下载相应版本

        2、下载JDK版本:Hadoop只支持1.6以上,地址:http://www.oracle.com/technetwork/java/javase/downloads/index.html

        3、操作系统:Linux

        4、四台机器,192.168.1.211(master), 192.168.1.212(slave),192.168.1.213(slave),192.168.1.214(slave)



二、安装操作

        1、在所有机器安装jdk

        2、在所有机器创建Hadoop用户及用户组

                groupadd -g 55 hadoop

                useradd -g 55 hadoop

        3、上传解压Hadoop包,对Hadoop文件的拥有者改为hadoop用户和组

                tar -zxvf hadoop-1.0.1.tar.gz

                sudo chown -R hadoop:hadoop hadoop-1.0.1

        4、配置SSH无密码登陆

                ssh-keygen  -t  rsa

                生成的密钥对id_rsa,id_rsa.pub,默认存储在.ssh目录下

                然后将id_rsa.pub的内容复制到每个机器(也包括本机)的.ssh/authorized_keys文件中,

                如果机器上已经有authorized_keys这个文件了,就在文件末尾加上id_rsa.pub中的内容,

                如果没有authorized_keys这个文件,直接cp或者scp就好了,

                下面的操作假设各个机器上都没有authorized_keys文件。

                scp hadoop@192.168.1.211:/home/hadoop/.ssh/authorized_keys ./

        5、修改conf/目录下的master文件,内容如下:

                        192.168.1.211

        6、修改conf/目录下的slaves文件,内容如下:

                        192.168.1.212

                        192.168.1.213

                        192.168.1.214

        

        7、修改$HADOOP_HOME/conf/hadoop-env.sh文件的环境变量:

                        # The java implementation to use.  Required.

                        export JAVA_HOME=/usr/java/jdk1.6.0_27

        8、修改$HADOOP_HOME/conf/core-site.xml配置文件,内容如下:

                        <?xml version="1.0"?>

                        <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

                        <!-- Put site-specific property overrides in this file. -->

                        <configuration>

                                <property>

                                  <name>hadoop.tmp.dir</name>

                                  <value>/hadoopdata</value>

                                  <description>A base for other temporary directories.</description>

                                </property>

                                

                                <property>

                                  <name>fs.default.name</name>

                                  <value>hdfs://192.168.1.211:9000</value>

                                  <description>The name of the default file system.  A URI whose

                                  scheme and authority determine the FileSystem implementation.  The

                                  uri's scheme determines the config property (fs.SCHEME.impl) naming

                                  the FileSystem implementation class.  The uri's authority is used to

                                  determine the host, port, etc. for a filesystem.</description>

                                </property>

                                

                                <property>

                                  <name>dfs.hosts.exclude</name>

                                  <value>excludes</value>

                                </property>

                        </configuration>

        9、修改$HADOOP_HOME/conf/hdfs-site.xml配置文件,内容如下:

                        <?xml version="1.0"?>

                        <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

                        <!-- Put site-specific property overrides in this file. -->

                        <configuration>

                                <property>

                                <name>dfs.replication</name>

                                <value>1</value>

                                </property>

                        </configuration>

        10、修改$HADOOP_HOME/conf/mapred-site.xml配置文件,内容如下:

                        <?xml version="1.0"?>

                        <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

                        <!-- Put site-specific property overrides in this file. -->

                        <configuration>

                        <property>

                          <name>mapred.job.tracker</name>

                          <value>192.168.1.211:9001</value>

                          <description>The host and port that the MapReduce job tracker runs

                          at.  If "local", then jobs are run in-process as a single map

                          and reduce task.

                          </description>

                        </property>

                        </configuration>

        11、修改/ect/profile配置文件,在末尾追加以下内容,并输入source/etc/profile使之生效:

                export JAVA_HOME=/usr/java/jdk1.6.0_27

                export JRE_HOME=/usr/java/jdk1.6.0_27/jre

                export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH

                export PATH=$JAVA_HOME/bin:$PATH

                export HADOOP_HOME=/home/hadoop/hadoop-1.0.1

                export PATH=$HADOOP_HOME/bin:$PATH

                export PATH=$PATH:$HIVE_HOME/bin

        12、将主控机器上Hadoop分别给节点机器复制一份。

                将/ect/profile拷贝到132、133和134机器上。注意profile需要做生效操作。





三、启动/停止hadoop

                1、通过shell脚本启动hadoop,可以通过jps命令查看是否启动NameNode、DataNode、secondaryNameNode、JobTracker、TaskTracher

                   注意:先要进行格式化HDFS文件系统,才能启动NameNode

                        $HADOOP_HOME/bin/start-all.sh

                2、停止hadoop

                        $HADOOP_HOME/bin/stop-all.sh

四、初始配置

                1、格式化HDFS文件系统。进入$HADOOP_HOME/bin目录。执行:hadoop namenode –format

                2、在$HADOOP_HOME/bin目录下,执行:hadoop fs -ls /

                                如果控制台返回结果,表示初始化成功。可以向里面录入数据。

                3、通过WEB查看hadoop

                                查看集群状态 http://192.168.1.211:50070/dfshealth.jsp 

                                查看JOB状态 http://192.168.1.211:50030/jobtracker.jsp

Hadoop分布式安装的更多相关文章

  1. hadoop分布式安装教程(转)

    from:http://www.cnblogs.com/xia520pi/archive/2012/05/16/2503949.html 1.集群部署介绍 1.1 Hadoop简介 Hadoop是Ap ...

  2. hadoop分布式安装过程

    一.安装准备及环境说明 1.下载hadoop-1.2.1,地址:http://apache.spinellicreations.com/hadoop/common/stable/hadoop-1.2. ...

  3. hadoop分布式安装部署详细视频教程(网盘附配好环境的CentOS虚拟机文件/hadoop配置文件)

    参考资源下载:http://pan.baidu.com/s/1ntwUij3视频安装教程:hadoop安装.flvVirtualBox虚拟机:hadoop.part1-part5.rarhadoop文 ...

  4. hadoop 分布式安装

    一.虚拟机安装centos7需要显示IPv4地址时设置 修改ip addr 中显示ipv4 修改 ONBOOT=no 为 ONBOOT=yes, 同时需要添加HWADDR=00:0c:29:c8:b6 ...

  5. hadoop分布式安装及其集群配置笔记

    各机器及角色信息: 共10台机器,hostname与ip地址映射在此不做赘述.此为模拟开发环境安装,所以不考虑将NameNode和SecondaryNameNode安装在同一台机器. 节点 角色 na ...

  6. hadoop分布式安装部署具体视频教程(网盘附配好环境的CentOS虚拟机文件/hadoop配置文件)

    參考资源下载:http://pan.baidu.com/s/1ntwUij3视频安装教程:hadoop安装.flvVirtualBox虚拟机:hadoop.part1-part5.rarhadoop文 ...

  7. CentOS7 分布式安装 Hadoop 2.8

    1. 基本环境 1.1 操作系统 操作系统:CentOS7.3 1.2 三台虚拟机 172.20.20.100 master 172.20.20.101 slave1 172.20.20.102 sl ...

  8. hadoop 完全分布式安装

    一个完全的hadoop分布式安装至少需要3个zookeeper,3个journalnode,3个datanode,2个namenode组成. 也就是说需要11个节点,但是我云主机有限,只有3个,所以把 ...

  9. hadoop生态圈安装详解(hadoop+zookeeper+hbase+pig+hive)

    -------------------------------------------------------------------* 目录 * I   hadoop分布式安装   * II zoo ...

随机推荐

  1. windows下mongoengine报错False is not a read preference.的解决办法

    mongoengine是基于pymongo的,后者的3.0版本在windows下似乎会有这个问题,解决方法就是降级: pip install pymongo==2.8 来源:upgrade to py ...

  2. GSS1 spoj 1043 Can you answer these queries I 最大子段和

    今天下午不知道要做什么,那就把gss系列的线段树刷一下吧. Can you answer these queries I 题目:给出一个数列,询问区间[l,r]的最大子段和 分析: 线段树简单区间操作 ...

  3. spf13-vim – The Ultimate Distribution for Vim Editor

    spf13-vim is a cross platform and highly customizable assortment of vim plugins and various resource ...

  4. C#读取shp的属性信息

    一个完整的ESRI的shape文件包括一个主文件,一个索引文件,和一个dBASE表文件.主文件是一个直接存取,变记录长度文件,其中每个记录描述一 个由其顶点列表组成的shape.在索引文件中,每条记录 ...

  5. 破解软件感悟-PE文件格式之Import Table(引入表)(四)

    先来看一个可执行文件的实例:本例程打开一PE文件,将所有引入dll和对应的函数名读入一编辑控件,同时显示 IMAGE_IMPORT_DESCRIPTOR 结构各域值. C:\QQDownload\bl ...

  6. 初见,Devexpress

    [绥江一百]http://www.sj100.net                                                  欢迎,进入绥江一百感谢点击[我的小网站,请大家多 ...

  7. jQuery简单邮箱验证

    function chekmail() { var szReg = /^([a-zA-Z0-9_\.\-])+\@(([a-zA-Z0-9\-])+\.)+([a-zA-Z0-9]{2,4})+$/; ...

  8. 百度编辑器ueditor代码高亮效果前台不显示的解决方法

    原因是你没有在你的内容页加载相应的css文件,这要如何解决呢? 经测试,只要插入以下两个文件即可解决问题: <link href="你的ueditor路径/ueditor/third- ...

  9. linux中mail函数不能发送邮件

    没有安装或启动 sendmail 组件 解决办法 我是新手,命令不熟,所以写的很详细,老鸟勿喷哦 1.重新安装 sendmail 组件,我用的是 CentOS ,使用下面的命令安装 代码如下 复制代码 ...

  10. windows下部署 ISCSI存储

    Write bt xiaoyang 配置篇 这里使用的软件为iscsiTargetqfe 1.      首先安装软件,可在微软官网下载 2.      然后找到安装程序 3.      完成安装后打 ...