watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvbWFuYnVyZW4wMQ==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center" alt="">

watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvbWFuYnVyZW4wMQ==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center" alt="">--------------------------------------------------

一、单节点的安装

1.伪分布式的安装

1.1 改动ip

(1)打开VMWare或者VirtualBox的虚拟网卡

(2)在VMWare或者VirtualBox设置网络连接方式为host-only

(3)在linux中,改动ip。有上角的图标,右键,选择Edit  Connections....

****ip必须与windows下虚拟网卡的ip在同一个网段,网关必须是存在的。

(4)重新启动网卡。运行命令service network restart

****报错,如no suitable adapter错误。

(5)验证:运行命令ifconfig

1.2 关闭防火墙

(1)运行命令service iptables stop 关闭防火墙

(2)验证:运行命令service iptables status

1.3 关闭防火墙的自己主动开启

(1)运行命令chkconfig iptables off

(2)验证:运行命令chkconfig --list|grep iptables

1.4 改动hostname

(1)运行命令hostname cloud4  改动会话中的hostname

(2)验证:运行命令hostname

(3)运行命令vi  /etc/sysconfig/network 改动文件里的hostname

(4)验证:运行命令reboot -h now 重新启动机器

1.5 设置ip与hostname绑定

(1)运行命令vi  /etc/hosts

在文本最后添加一行192.168.80.100 cloud4

(2)验证:ping cloud4

1.6 ssh免password登陆

(1)运行命令ssh-keygen -t rsa   产生秘钥位于/root/.ssh/

(2)运行命令cp /root/.ssh/id_rsa.pub /root/.ssh/authorized_keys  产生授权文件

(3)验证:ssh localhost

1.7 安装jdk

(1)使用winscp把jdk、hadoop拷贝到linux的/root/Downloads

(2)cp  /root/Downloads/*  /usr/local

(3)cd /usr/local

赋予运行权限 chmod u+x  jdk-6u24-linux-i586.bin

(4)./jdk-6u24-linux-i586.bin

(5)重命名 mv jdk1.6.0_24  jdk

(6)运行命令 vi /etc/profile 环境变量设置  

添加两行 export JAVA_HOME=/usr/local/jdk

export PATH=.:$JAVA_HOME/bin:$PATH

保存退出

  运行命令  source  /etc/profile

(7)验证:运行命令java -version

1.8 安装hadoop

(1)运行命令 tar -zxvf hadoop-1.1.2.tar.gz  解压缩

(2)运行命令  mv hadoop-1.1.2  hadoop

(3)运行命令 vi  /etc/profile  环境变量设置

添加一行 export HADOOP_HOME=/usr/local/hadoop

改动一行 export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH

保存退出

  运行命令  source  /etc/profile


(4)验证:运行命令 hadoop

(5)改动位于conf/的配置文件hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml

<1>文件hadoop-env.sh的第9行

export JAVA_HOME=/usr/local/jdk/





<2>文件core-site.xml

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://cloud4:9000</value>

<description>change your own hostname</description>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/local/hadoop/tmp</value>

</property>  

</configuration>

<3>文件hdfs-site.xml

<configuration>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.permissions</name>

<value>false</value>

</property>

</configuration>





<4>文件mapred-site.xml

<configuration>

<property>

<name>mapred.job.tracker</name>

<value>cloud4:9001</value>

<description>change your own hostname</description>

</property>

</configuration>

(6)运行命令 hadoop namenode -format 进行格式化

(7)运行命令 start-all.sh 启动hadoop

(8)验证:

<1>运行命令jps 查看java进程,发现5个进程,各自是NameNode、SecondaryNameNode、DataNode、JobTracker、TaskTracker

<2>通过浏览器查看http://master:50070 和 http://master:50030 

*****改动windows的C:/Windows/system32/drivers/etc/文件夹下的hosts文件

二、多节点的搭建

1.hadoop集群搭建

      1.1 hadoop集群式多台机器物理分布的,每一台物理机器都是承担不同的角色(NameNode\DataNode\SecondarynaemNode\JobTracker\TaskTracker)。

搭建三个节点的hadoop集群:hadoop0(NameNode、JobTracker、SecondarynaemNode),hadoop1和hadoop2(DataNode、TaskTracker)。

      1.2 集群的各个节点通常都是物理机器。可是也能够包括虚拟机。

      1.3 在VMWare中复制出两个节点。删除这两个节点中的.ssh配置信息和/usr/local/文件夹下的全部内容

      1.4 设置这两个新节点的ip(各自是192.168.80.101和192.168.80.102)和hostname(hadoop1和hadoop2)。

      1.5 把全部的ip和hostname的映射信息配置在每个节点的/etc/hosts中。

      1.6 集群的各个节点之间SSH免password登陆

       (1)在两个新节点中产生ssh秘钥文件

(2)ssh-copy-id -i hadoop0

      1.7 把hadoop0上原来的/usr/local/hadoop/logs和/usr/local/hadoop/tmp文件夹删除

      1.8 把hadoop0上的jdk文件夹和hadoop文件夹拷贝到其它节点

        scp -r /usr/local/jdk  hadoop1:/usr/local

scp -r /usr/local/hadoop  hadoop1:/usr/local

     1.9 在hadoop0节点上配置主从关系。改动$HADOOP_HOME/conf/slaves文件。删除原有内容,改动为hadoop1和hadoop2.

    1.10 在hadoop0上格式化文件系统  hadoop namenode -format

    1.11 在hadoop0上运行命令  start-all.sh





    2.动态添加hadoop的从节点

   2.1 如果hadoop0是将要被新增的从节点

   2.2 改动主节点hadoop0的slaves文件。添加hadoop0

   2.3 在从节点hadoop0上手工启动DataNode和TaskTracker进程

      hadoop-daemon.sh start datanode|tasktracker

   2.4 让主节点载入新的从节点信息

     hadoop dfsadmin -refreshNodes





    3.动态改动副本数

      hadoop fs -setrep 2  /core-site.xml

hadoop1.1.0的伪分布搭建步骤的更多相关文章

  1. Hadoop伪分布式搭建步骤

    说明: 搭建环境是VMware10下用的是Linux CENTOS 32位,Hadoop:hadoop-2.4.1  JAVA :jdk7 32位:本文是本人在网络上收集的HADOOP系列视频所附带的 ...

  2. hadoop学习;hadoop伪分布搭建

    先前已经做了准备工作安装jdk什么的,以下開始ssh免password登陆.这里我们用的是PieTTY工具,当然你也能够直接在linux下直接操作 ssh(secure shell),运行命令 ssh ...

  3. [b0006] Spark 2.0.1 伪分布式搭建练手

    环境: 已经安装好: hadoop 2.6.4  yarn 参考: [b0001] 伪分布式 hadoop 2.6.4 准备: spark-2.0.1-bin-hadoop2.6.tgz 下载地址:  ...

  4. Hadoop-1.0.4伪分布安装与配置

    1.采用伪分布模式安装      将hadoop-****.tar.gz复制到linux的/usr/local目录下. 2.解压,重命名      #tar -xzvf hadoop-1.0.4.ta ...

  5. Hadoop伪分布搭建

    一.伪分布式的搭建 1.准备Linux环境 1.0点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改 ...

  6. Hadoop2.0 HA集群搭建步骤

    上一次搭建的Hadoop是一个伪分布式的,这次我们做一个用于个人的Hadoop集群(希望对大家搭建集群有所帮助): 集群节点分配: Park01 Zookeeper NameNode (active) ...

  7. 在centos7上进行hadoop-3.1.2的伪分布搭建

    第一步:配置网络(静态IP) vi /etc/sysconfig/network-scripts/ifcfg-ens33(网卡名称可能不同) 1. 修改: 将该配置文件中的ONBOOT=no修改为ye ...

  8. 2015.07.12hadoop伪分布安装

    hadoop伪分布安装   Hadoop2的伪分布安装步骤[使用root用户用户登陆]other进去超级用户拥有最高的权限 1.1(桥接模式)设置静态IP ,,修改配置文件,虚拟机IP192.168. ...

  9. Hadoop 安装(本地、伪分布、分布式模式)

    本地模式 环境介绍 一共三台测试机 master   192.168.4.91 slave1   192.168.4.45 slave2   192.168.4.96 操作系统配置 1.Centos7 ...

随机推荐

  1. STM32 关于HAL库硬件SPI要注意的问题总结

    利用STM32CUbeMx编写程序,大大方便了开发,最近做的项目利用到了 STM32CUbeMx的硬件SP,这里对SPI的使用做一个总结. HAL库里的硬件SPI主要有以下几个库函数: /* hspi ...

  2. 【Codeforces Round #499 (Div. 2) E】Border

    [链接] 我是链接,点我呀:) [题意] 给你n个数字,每个数字可以无限用,每种方案可以组成一个和,问你%k的结果有多少种不同的结果. [题解] 相当于给你一个方程 \(x_1*a_1+x_2*a_2 ...

  3. oracle 数据类型及函数

    第一节:字符串类型及函数 字符类型分 3 种,char(n) .varchar(n).varchar2(n) : char(n)固定长度字符串,假如长度不足 n,右边空格补齐: varchar(n)可 ...

  4. ASP.NET-关于Global.asax的作用

    这个文件相当于一个应用程序量级的 全局文件,比如你想写一个变量在项目中的所有文件中都能读取是就写在这里面 Application["name"] = "zhangran& ...

  5. maven常用插件功能

    maven-dependency-plugin http://maven.apache.org/plugins/maven-dependency-plugin/ maven-dependency-pl ...

  6. 今天开始看看brpc-baidurpc

    链接如下: Link 大概看了一下.没有很明显的感觉.还是喜欢机器学习相关的内容.

  7. 开心的小明(南阳oj49)(01背包)

    开心的小明 时间限制:1000 ms  |  内存限制:65535 KB 难度:4 描写叙述 小明今天非常开心.家里购置的新房就要领钥匙了,新房里有一间他自己专用的非常宽敞的房间.更让他高兴的是,妈妈 ...

  8. Oracle Table Function

    Oracle Table Function在Oracle9i时引入.完美的兼容了view和存储过程的长处: 应用举例: 1.Table()函数: set feedback off create or ...

  9. 浅析JAVA设计模式之工厂模式(二)

    1 工厂方法模式简单介绍 工厂方法 (Factroy Method)模式:又称多态性工厂模式(Polymorphic Factory),在这样的模式中,核心工厂不再是一个详细的类.而是一个抽象工厂,提 ...

  10. 夜&#183; 启程

    有写博客的念头,还是在去年的时候. 那天早上我非常兴奋,也非常忐忑.由于我立即要去JD面试.JD大家都知道的,对我这样的没见过世面的人来说.这就是个高高在上殿堂. 结果我的满腔热血.被一张面试题卷给浇 ...