前期准备工作:

1.改动Linux主机名:/etc/hostname

                        ubuntu系统:vi /etc/hostname

                        将ubuntu默认的主机名ubuntu改为suh01



2.改动IP:/etc/network/interfaces

                        改动配置文件/etc/network/interfaces

                        vi /etc/network/interfaces

                        #将原来的内容凝视掉:

                        #auto lo

                        #iface lo inet loopback

                        #然后加入下面内容:

                        auto eth0                  #设置自己主动启动eth0接口

                        iface eth0 inet static     #配置静态IP

                        address 192.168.1.101      #IP地址

                        netmask 255.255.255.0      #子网掩码

                        gateway 192.168.1.1        #默认网关



3.改动主机名和IP的映射关系:/etc/hosts

                        vi /etc/hosts                

                        #127.0.0.1      localhost                

                        192.168.1.201        suh01

                        192.168.1.202        suh02

                        192.168.1.203        suh03



4.查看防火墙状态、关闭防火墙:ufw status 、ufw disable



5.安装JDK,配置环境变量等。

        5.1上传:使用ftp工具上传jdk安装文件

            #创建文件夹,将安装文件上传至此文件夹下

                 mkdir /usr/java

        

        5.2解压jdk

                tar -zxvf jdk-7u76-linux-x64.tar.gz

                                

        5.3将java加入到环境变量中

                vi /etc/profile

                #在文件最后加入

                export JAVA_HOME=/usr/java/jdk1.7.0_76

                export PATH=$PATH:$JAVA_HOME/bin

                

                #刷新配置

                source /etc/profile



6.ssh免登陆:

    6.1在suh01上运行:

       ssh-keygen -t rsa (直接回车)

           运行完这个命令后。会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)

           

    6.2然后将公钥复制到要免登陆的机器上        

                ssh-copy-id suh01  (最好也给自己设置免登陆)

                ssh-copy-id suh02 

                ssh-copy-id suh03





集群规划:

        主机名                IP                       安装的软件                                        执行的进程

        suh01        192.168.1.201           jdk、hadoop                        NameNode、JobTracker、SecondaryNameNode

        suh02        192.168.1.202           jdk、hadoop                                        DataNode、TaskTracker

        suh03        192.168.1.203           jdk、hadoop                                        DataNode、TaskTracker

        



IP与主机名映射关系

-----------------------        

192.168.1.201        suh01

192.168.1.202        suh02

192.168.1.203        suh03

-----------------------        

        



安装步骤:        

        1.安装配置hadoop集群(总共改动了六个配置文件:hadoo-env.sh、core-site.xml、hdfs-site.xml、slaves、yarn-site.xml、mapred-site.xml )

                1.1上传并解压hadoop安装包解压

                        tar -zxvf hadoop-1.2.1.tar.gz

                        

                1.2配置相关文件(hadoop1.2.1全部的配置文件都在hadoop1.2.1/conf文件夹下)                                                

                        cd /home/suh/hadoop-1.2.1/conf

                        

                        1.2.1改动hadoop-env.sh

                                export JAVA_HOME=/usr/java/jdk1.7.0_76

                                

                        1.2.2改动core-site.xml

                                <configuration>                                        

                                        <property>

                                                <name>fs.default.name</name>

                                                <value>hdfs://suh01:9000</value>

                                        </property>

                                                                                

                                        <property>

                                                <name>hadoop.tmp.dir</name>

                                                <value>/home/suh/hadoop-1.2.1/tmp</value>

                                        </property>

                                </configuration>

                                

                        1.2.3改动hdfs-site.xml

                                <configuration>        

                                        <property>

                                                <name>dfs.replication</name>

                                                <value>2</value>

                                        </property>                                        

                                </configuration>

                                

                        1.2.4 改动mapred-site.xml

                                <configuration>

                                        <property>

                                                <name>mapred.job.tracker</name>

                                                <value>suh01:9001</value>

                                        </property>

                                </configuration>



                        1.2.5改动masters 文件,加入例如以下内容:

                                        suh01                        

                        

                        1.2.6改动slaves 文件,加入例如以下内容:

                                        suh02

                                        suh03        

                

                

                1.3将配置好的hadoop复制到其它节点(为了拷贝更高速,建议把/home/hadoop-2.2.0/share 下的doc文件夹删掉:rm -rf doc)

                        scp -r /home/suh/hadoop-1.2.1/ suh@suh02:/home/suh/

                        scp -r /home/suh/hadoop-1.2.1/ suh@suh03:/home/suh/                        

                                                



======開始启动集群=======                        

                2.1格式化HDFS

                        在hdfs的NameNode机器(suh01)上运行命令:

                        ./bin/hadoop namenode -format

                                                

                2.2启动HDFS(在suh01上运行,这里最好先配置好免登录,不然会提示输入password。免登陆配置在下文有配置步骤)

                        ./bin/start-all.sh

                        

                        运行成功后进行相关检验:

                         (1)、suh01上多了NameNode、JobTracker、SecondaryNameNode进程。

                         (2)、接着分别进入到suh02、suh03机器,执行jps命令查看,发现它也启动好了DataNode、TaskTracker进程。

                

                         

======hadoop集群启动成功后。进行測试======                 

                3.1到此,hadoop1.2.1配置完成,能够进行浏览器訪问:

                        http://192.168.1.201:50070



                3.2执行wordcount測试

                    hdfs上创建文件夹:

                        ./bin/hadoop fs -mkdir /in

                        

                    从linux上传測试数据文件到hdfs上:

                        ./bin/hadoop fs -put /home/suh/test1 /in

                        

                        运行測试样例:

                        ./bin/hadoop jar hadoop-examples-1.2.1.jar wordcount /in/ /out

Hadoop1.2.1 全然分布式集群搭建实操笔记的更多相关文章

  1. hadoop2.7全然分布式集群搭建以及任务測试

    要想深入的学习hadoop数据分析技术,首要的任务是必需要将hadoop集群环境搭建起来,本文主要讲述怎样搭建一套hadoop全然分布式集群环境. 环境配置:2台64位的redhat6.5 +  1台 ...

  2. Mysql集群搭建-实操

    集群安装--准备工作 官网地址 https://dev.mysql.com/doc/refman/5.7/en/mysql-cluster-install-linux-binary.html 一.环境 ...

  3. Hadoop上路-01_Hadoop2.3.0的分布式集群搭建

    一.配置虚拟机软件 下载地址:https://www.virtualbox.org/wiki/downloads 1.虚拟机软件设定 1)进入全集设定 2)常规设定 2.Linux安装配置 1)名称类 ...

  4. hadoop伪分布式集群搭建与安装(ubuntu系统)

    1:Vmware虚拟软件里面安装好Ubuntu操作系统之后使用ifconfig命令查看一下ip; 2:使用Xsheel软件远程链接自己的虚拟机,方便操作.输入自己ubuntu操作系统的账号密码之后就链 ...

  5. Hadoop分布式集群搭建

    layout: "post" title: "Hadoop分布式集群搭建" date: "2017-08-17 10:23" catalog ...

  6. hbase分布式集群搭建

    hbase和hadoop一样也分为单机版.伪分布式版和完全分布式集群版本,这篇文件介绍如何搭建完全分布式集群环境搭建. hbase依赖于hadoop环境,搭建habase之前首先需要搭建好hadoop ...

  7. 分布式实时日志系统(四) 环境搭建之centos 6.4下hbase 1.0.1 分布式集群搭建

    一.hbase简介 HBase是一个开源的非关系型分布式数据库(NoSQL),它参考了谷歌的BigTable建模,实现的编程语言为 Java.它是Apache软件基金会的Hadoop项目的一部分,运行 ...

  8. kafka系列二:多节点分布式集群搭建

    上一篇分享了单节点伪分布式集群搭建方法,本篇来分享一下多节点分布式集群搭建方法.多节点分布式集群结构如下图所示: 为了方便查阅,本篇将和上一篇一样从零开始一步一步进行集群搭建. 一.安装Jdk 具体安 ...

  9. MinIO 分布式集群搭建

    MinIO 分布式集群搭建 分布式 Minio 可以让你将多块硬盘(甚至在不同的机器上)组成一个对象存储服务.由于硬盘分布在不同的节点上,分布式 Minio 避免了单点故障. Minio 分布式模式可 ...

随机推荐

  1. 第二篇:python基础_2

    本篇内容 数字 字符串 元祖 字典 列表 集合 for循环 二进制 字符编码 文件处理 一.数字 1.int(整型) 在32位机器上,整数的位数为32位,取值范围为-2**31-2**31-1,即-2 ...

  2. hihoCoder #1867 GCD

    在集合 $[n]$ 上使用容斥原理. 固定 $i$,考虑有多少个 $j \in [n]$ 满足 $\gcd(i, j) = \gcd(a_i, a_j) = 1$,将此数目记作 $f_i$.暂时不考虑 ...

  3. 【SPOJ694】Distinct Substrings (SA)

    求不相同子串个数    该问题等价于求所有后缀间不相同前缀的个数..也就是对于每个后缀suffix(sa[i]),将贡献出n-sa[i]+1个,但同时,要减去那些重复的,即为height[i],故答案 ...

  4. java连接adsl

    http://blog.csdn.net/qq_28784775/article/details/54134169#comments

  5. iOS 之 判断是否是第一次打开app

    /** App判断第一次启动的方法 */ NSString *key = @"isFirst"; BOOL isFirst = [[NSUserDefaults standardU ...

  6. iOS工程中一天只让进行一次的操作如何做?

     转至: iosNSDateNSObject一天一次   整体思路:当进行操作的时候记录操作时间存在偏好设置当中,当再次点击的时候获取现在的时间然后和之前记录的时间进行比较.如果是一天那么就提示“今天 ...

  7. AVRStudio 6 设置F_CPU时钟频率

    具体如下: 1>右键项目属性 2>根据语言选择一下,C或C++

  8. Python Challenge 第七关

    第七关,只有一张图片,右键源代码也什么都没有,只是这图片上有一行类似马赛克一样的部分.看来答案只有在这张图上找了.下载了图片,去网上搜一下有什么库可以处理图像.搜到了一个PIL,发现安装的python ...

  9. AC日记——[SCOI2007]蜥蜴 bzoj 1066

    1066 思路: 网络流最大流: 拆点,每个点拆成两个,流量为这个点的高度: 注意,文中说的距离是曼哈顿距离(劳资以为开根号wa了不知道多少次): 每两个距离不大于d的点连边,流量inf: 如果距离能 ...

  10. web前端生成图片之探索踩坑

    前段时间,产品和运营整了个非常变态的需求,要求将一个活动页面输出为图片,然后用户进行分享 开始以为是用户自己手动截图分享,没想到后来不是,细思极恐,感叹需求之变态. 从网上找了N个方案,最后确定使用  ...