Hadoop多节点集群规划

服务起名称 内网IP HDFS YARN
master 192.168.1.155 NameNode ResourceManager
slave1 192.168.1.116 DataNode NodeManager
slave2 192.168.1.117 DataNode NodeManager
slave3 192.168.1.118 DataNode NodeManager

1. Slave1机器配置
    1.1 以单机Hadoop镜像为模板克隆出一个虚拟机, 修改固定IP及MAC地址(修改/etc/sysconfig/network-scripts/ifcfg-ens33)

    DEVICE="ens33"
        HWADDR="00:0C:29:30:BB:7E"
    Type="Ethernet"
    BOOTPROTO="static"
    IPADDR=192.168.1.156
    GATEWAY=192.168.1.1
    NETMASK=255.255.255.0
    ONBOOT="yes"
    1.2 修改机器名为Slave1(/etc/hostname)
    1.3 修改机器名及ip映射(/etc/hosts),同时将127.0.0.1映射到slave1

192.168.1.155 master
      192.168.1.156 slave1
      192.168.1.157 slave2
      192.168.1.157 slave3

1.4 编辑/usr/local/hadoop/etc/hadoop/core-site.xml,设置fs.defaultFS值为hdfs://master:9000
    1.5 编辑.../..../yarn-site.xml,添加额外的3个property(nodemanager->resourcemanager,  application-master->resourcemanager, client->resourcemanager)

      <property>
       <name>yarn.resourcemanager.resource-tracker.address</name>
       <value>master:8025</value>
    </property>
         <property>
       <name>yarn.resourcemanager.scheduler.address</name>
         <value>master:8030</value>
      </property>
      <property>
        <name>yarn.resourcemanager.address</name>
        <value>master:8050</value>
      </property>
    1.6 编辑mapred-site.xml,添加

<property>
              <name>mapred.job.tracker</name>
       <value>master:54331</value>
      </property>
    1.7 编辑hdfs-site.xml, slave1为datanode,所以设置data dir

<property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/usr/local/hadoop/hadoop_data/hdfs/datanode</value>
      </property>

2. Slave2机器配置
    2.1 以Slave1机器为模板,复制出新的VM,然后修改固定IP及MAC

   DEVICE="ens33"
         HWADDR="00:0C:29:51:C4:45"
     Type="Ethernet"
     BOOTPROTO="static"
     PADDR=192.168.1.157
     GATEWAY=192.168.1.1
     NETMASK=255.255.255.0
     ONBOOT="yes"

2.2 修改机器名为Slave2(/etc/hostname)

2.3 修改/etc/hosts,将127.0.0.1映射到slave2

3. Slave3机器配置
    3.1 以Slave1机器为模板,复制出新的VM,然后修改固定IP及MAC

     DEVICE="ens33"
     HWADDR="00:0C:29:BE:C6:0C"
     Type="Ethernet"
     BOOTPROTO="static"
     IPADDR=192.168.1.158
     GATEWAY=192.168.1.1
     NETMASK=255.255.255.0
     ONBOOT="yes"

3.2 修改机器名为Slave3(/etc/hostname)

3.3 修改/etc/hosts,将127.0.0.1映射到slave3

4. Master机器配置
    4.1 设置hdfs-site.xml, Master为NameNode, 指定name dir

      <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/usr/local/hadoop/hadoop_data/hdfs/namenode</value>
      </property>

4.4 设置yarn-site.xml

   <property>
     <name>yarn.resourcemanager.resource-tracker.address</name>
     <value>master:8025</value>
     </property>
     <property>
       <name>yarn.resourcemanager.scheduler.address</name>
       <value>master:8030</value>
   </property>
     <property>
       <name>yarn.resourcemanager.address</name>
         <value>master:8050</value>
   </property>

4.3 编辑masters(/usr/local/hadoop/etc/hadoop/masters), 内容为master
    4.4 编辑slaves(/usr/local/hadoop/etc/hadoop/slaves,内容为
          slave1
          slave2
          slave3
    4.5 ssh到3台slaves机器,创建datanode目录/usr/local/hadoop/hadoop_data/hdfs/datanode
    4.6 master机器上创建namenode目录/usr/local/hadoop/hadoop_data/hdfs/namenode
    4.7 格式化NameNode HDFS目录(hdfs namenode -format), 注意:首次格式化时使用
    4.8 启动多节点Hadoop Cluster
          start-dfs.sh
          start-yarn.sh
    4.9 查看ResourceManager Web界面(http://master:8088)及NameNode Web界面(http://master:50070)
    4.10 关闭多节点Hadoop Cluster
          stop-dfs.sh
          stop-yarn.sh

其他:删除多余内网ip命令ip addr del 192.168.1.105/24 dev ens33

Hadoop多节点Cluster的更多相关文章

  1. Hadoop添加节点datanode(生产环境)

    Hadoop添加节点datanode 博客分类: hadoop HadoopSSHJDKXML工作  1.部署hadoop    和普通的datanode一样.安装jdk,ssh  2.修改host  ...

  2. 实验-hadoop新增节点

    关于hadoop新增节点网上的说法都有些差别,自己来实践一把 1.建立一个namenode一个datanode的集群 master:192.168.126.130 slave1:192.168.126 ...

  3. Hadoop Datanode节点无法启动(All directories in dfs.data.dir are invalid)

    Hadoop Datanode节点无法启动(All directories in dfs.data.dir are invalid) java.io.IOException: All director ...

  4. 一、hadoop单节点安装测试

    一.hadoop简介 相信你或多或少都听过hadoop这个名字,hadoop是一个开源的.分布式软件平台.它主要解决了分布式存储(hdfs)和分布式计算(mapReduce)两个大数据的痛点问题,在h ...

  5. 当Hadoop 启动节点Datanode失败解决

    Hadoop 启动节点Datanode失败解决 [日期:2014-11-01] 来源:Linux社区  作者:shuideyidi [字体:大 中 小] 当我动态添加一个Hadoop从节点的之后,出现 ...

  6. 【Hadoop】Hadoop DataNode节点超时时间设置

    hadoop datanode节点超时时间设置 datanode进程死亡或者网络故障造成datanode无法与namenode通信,namenode不会立即把该节点判定为死亡,要经过一段时间,这段时间 ...

  7. 【大数据系列】hadoop单节点安装官方文档翻译

    Hadoop: Setting up a Single Node Cluster. HADOOP:建立单节点集群 Purpose Prerequisites Supported Platforms R ...

  8. Hadoop多节点集群安装配置

    目录: 1.集群部署介绍 1.1 Hadoop简介 1.2 环境说明 1.3 环境配置 1.4 所需软件 2.SSH无密码验证配置 2.1 SSH基本原理和用法 2.2 配置Master无密码登录所有 ...

  9. 一步步教你Hadoop多节点集群安装配置

    1.集群部署介绍 1.1 Hadoop简介 Hadoop是Apache软件基金会旗下的一个开源分布式计算平台.以Hadoop分布式文件系统HDFS(Hadoop Distributed Filesys ...

随机推荐

  1. 修改bash命令提示符

    说明:PS1是主要的提示符设置,在ubuntu一般为: ${debian_chroot:+($debian_chroot)}\u@\h:\w\$ 具体的提示符,按分类含义如下: 主要信息: \u 当前 ...

  2. 5.2.2 re模块方法与正则表达式对象

    Python标准库re提供了正则表达式操作所需要的功能,既可以直接使用re模块中的方法,来实现,也可以把模式编译成正则表达式对象再使用. 方法 功能说明 complie(pattern[,flagss ...

  3. 解析 XML 数据

    在几个月前我有做过这样的记录,其目的是避免解析 XML 时手工编写太多的代码,造成重复的体力劳动.后来经过一番资料的查找,我发现其实并没有必要做这样的工具,因为 C# 已经为我们提供了更好的解决方案了 ...

  4. [cogs396] [网络流24题#4] 魔术球 [网络流,最大流,最小路径覆盖]

    本题枚举每多一个球需要多少个柱子,可以边加边边计算,每次只需要判断$i-Dinic()$即可:特别注意边界. #include <iostream> #include <algori ...

  5. [jdoj1258]野生动物园(change by panxf)_权值线段树_组合数

    人品计算 题目大意:n个数的a序列,m组询问.每次询问给出T,A,B,K.求在a序列的[A,B]的位置之内的K小值P,的$C_{T}^{P \% T} \% 10111$. 注释:每组询问保证区间只相 ...

  6. 利用DTrace实时检测MySQl

    与我们大多数人想象的不同,DTrace用于MySQL时不需对MySQL做任何更改.DTrace最强大的“提供器”(provider,是一组可观测的探测器)是FBT(Functional Boundar ...

  7. 在imageView依次加入7个手势, 1.点击哪个button,往imageView上加入哪个手势.(保证视图上仅仅有一个手势). 2.轻拍:点击视图切换美女图片.(imageView上首先展示的美女

    // // ControlView.h // HomeworkGestureRecognizer // // Created by lanouhn on 14-8-27. // Copyright ( ...

  8. 从头认识Spring-2.7 自己主动检測Bean(1)-@Component @Repository @Service @Controller

    这一章节我们来讨论一下自己主动检測Bean. 1.domain 厨师类: package com.raylee.my_new_spring.my_new_spring.ch02.topic_1_19; ...

  9. Java基础:String不可变性和final修饰

    转载请注明出处: jiq•钦's technical Blog - 季义钦 String的不可变性 Java规定String是不可变的(immutable).事实上这个不可变具备两层含义: 1 内容不 ...

  10. 解决国内android sdk无法更新,google不能的简单办法

    在国内屏蔽了很多外国站点.连google 和android都屏蔽了,做程序猿的就苦了! 只是车到山前必有路,我们也有我们的办法! 推荐一个比以下的更好的方法:红杏公益代理:http://blog.cs ...