1、准备

  四台虚拟机

  ①卸载openjdk

  ②安装jdk

2. 配置静态ip:

  ip : 每个机器在internet上的唯一标识
  子网掩码: 必须结合IP地址一起使用,将某个IP地址划分成网络地址和主机地址两部分。
  网关 : 网关既可以用于广域网互连,也可以用于局域网互连。 网关是一种充当转换重任的计算机系统或设备
  DNS : 它作为可以将域名和IP地址相互映射的一个分布式数据库,能够使人更方便的访问互联网,而不用去记住能够被机器直接读取的IP数串。

   ①进入/etc/sysconfig/network-scripts目录,找到该接口的配置文件(ifcfg-xxxxx),

    BOOTPROTO=static             #改成静态连接
    ONBOOT=yes
    IPADDR=192.168.40.10              #需要设置的静态ip,必须在网段内,需要自己查看虚拟机的网段
    NETMASK=255.255.255.0          #子网掩码,虚拟机上有
    GATEWAY=192.168.40.2          #网关,路由器角色
    DNS1=114.114.114.114         /#域名解析器

  注:除了上面的几个属性,配置文件中其余的都是不必要的。

  ②关闭防火墙

    systemctl stop firewalld.service          //关闭防火墙
    systemctl disable firewalld.service     //永久关闭

    systemctl status firewalld.service     //查看防火墙状态。出现:disavtive(dead): 说明防火墙已经关闭

  ③验证

    ping www.baidu.com          //ping外网

    ping 192.168.40.10          //ping另一台linux机器

3、修改主机映射

  vi /etc/hosts 添加以下映射

  1.   192.168.40.10 s10
  2.   192.168.40.11 s11
  3.   192.168.40.12 s12
  4.   192.168.40.13 s13

2、SSH

  1、在用户名中的家目录中进入到.ssh 隐藏目录中:

    cd ~

    cd ./.ssh

  2、生成秘钥:

    ssh-keygen -t rsa

  3、所有机器上上重复以上的步骤1、2步骤

  4、每台机器将秘钥分配到其他机器(包括本机):

    ssh-copy-id s10       //我的分布式有四台,分别是s10,s11,s12,s13,每台机器都得把公匙发出去,发给所有的集群,包括发给自己
    ssh-copy-id s11
    ssh-copy-id s12
    ssh-copy-id s13

  注:如果是root用户免密登录,上述的操作都在root用户下。

  5、验证

    ssh s11    //能登录就行,第一次好像要输密码

3、hadoop安装:

  ①集群分配

    s10:namenode,resourcemannager,secondary //名称节点,资源管理节点

    s11:datanode,datamannager //数据节点
    s12: datanode,datamannager //数据节点
    s13:datanode,datamannager //数据节点

  ②修改配置文件

    cd $HADOOP_HOME/etc/hadoop/

    修改下面的四个文件

  配置文件修改:

  1. core-site(名称节点及其文件保存路劲(默认文件系统)):
  2.  
  3. <configuration>
  4.  
  5. <property>
  6.  
  7. <name>fs.defaultFS</name>
  8.  
  9. <value>hdfs://192.168.40.10:9000</value>
  10.  
  11. </property>
  12.  
  13. <property>
  14.  
  15. <name>hadoop.tmp.dir</name>
  16.  
  17. <value>/opt/app/hadoop-2.7.2/data/tmp</value>
  18.  
  19. </property>
  20.  
  21. </configuration>
  22.  
  23. hdfs-site(辅助名称节点、名称节点外部访问地址,是否开启权限):
  24.  
  25. <configuration>
  26.  
  27. <property>
  28.  
  29. <name>dfs.namenode.secondary.http-address</name>
  30.  
  31. <value>192.168.40.10:50090</value>
  32.  
  33. </property>
  34.  
  35. <property>
  36.  
  37. <name>dfs.namenode.http-address</name>
  38.  
  39. <value>192.168.40.10:50070</value>
  40.  
  41. </property>
  42.  
  43. <property>
  44.  
  45. <name>dfs.permissions.enabled</name>
  46.  
  47. <value>false</value>
  48.  
  49. </property>
  50.  
  51. </configuration>
  52.  
  53. yarn-sitemapreduce框架名、历史服务器外部访问地址,日志外部访问地址):
  54.  
  55. <configuration>
  56.  
  57. <property>
  58.  
  59. <name>mapreduce.framework.name</name>
  60.  
  61. <value>yarn</value>
  62.  
  63. </property>
  64.  
  65. <property>
  66.  
  67. <name>mapreduce.jobhistory.address</name>
  68.  
  69. <value>192.168.40.10:10020</value>
  70.  
  71. </property>
  72.  
  73. <property>
  74.  
  75. <name>mapreduce.jobhistory.webapp.address</name>
  76.  
  77. <value>192.168.40.10:19888</value>
  78.  
  79. </property>
  80.  
  81. </configuration>
  82.  
  83. mapred-siteresourcemanager节点,日志保存时间(7天),好像没有这个文件,需要 mapred-site.xml.temple这个文件复制一份,然后名字改为mapred-site.xml):
  84.  
  85. <configuration>
  86. <property>
  87.  
  88. <name>yarn.resourcemanager.hostname</name>
  89.  
  90. <value>192.168.40.10</value>
  91.  
  92. </property>
  93.  
  94. <property>
  95.  
  96. <name>yarn.nodemanager.aux-services</name>
  97.  
  98. <value>mapreduce_shuffle</value>
  99.  
  100. </property>
  101.  
  102. <property>
  103.  
  104. <name>yarn.log-aggregation.retain-seconds</name>
  105.  
  106. <value>604800</value>
  107.  
  108. </property>
  109.  
  110. </configuration>
  111.  
  112. slave(名称节点):
  113.  
  114. s11
  115. s12
  116.     s13

  格式化:

    scp -r /opt/app/hadoop-2.7.2/etc/hadoop/ s11:/opt/app/hadoop-2.7.2/etc/      //目录分发(已存在则会覆盖)

    rm -rf /opt/app/hadoop-2.7.2/data/tmp/* //删除目录文件(每一台)

    hadoop namenode -format //格式化文件系统,会删除所有

  启动:

    start-all.sh
    stop-all.sh      //停止

4、节点退役与服役

  1、准备工作:

    ①新节点的ip、hostname配置
    ②所有节点对新节点的主机映射、ssh配置
    ③将一个datanode的hadoop安装目录的scp给新节点
    ④新节点删除logs、data\tmp下面的所有文件

  2、服役(namenode下配置)

    ①在slaves文件中添加新节点的主机映射
    ②新建dfs.include(白名单)、dfs.exclude(黑名单),并在白名单中输入所有的数据节点主机映射
    ③hdfs-site.xml

      <property>
        <!-- 白名单信息-->
        <name>dfs.hosts</name>
        <value>/home/hadoop/hadoop/etc/dfs.include</value>
      </property>
      <property>
        <!-- 黑名单信息-->
        <name>dfs.hosts.exclude</name>
        <value>/home/hadoop/hadoop/etc/dfs.exclude</value>
      </property>

    ④单独启动节点(新节点中操作)

      hadoop-daemon.sh start datanode //启动datanode,在50070端口可看到结果
      yarn-daemon.sh start nodemanager //启动nodemannager,在8088端口可看见结果

    ⑤刷新节点

      hdfs dfsadmin -refreshNodes

    ⑥平衡节点

      start-balancer.sh

    注:端口中查看可能会延迟一些时间

  3、退役(namenode下配置)

    ①dfs.exclude(黑名单)文件中添加退役节点映射
    ②hdfs-site.xml

     <property>
        <name>dfs.hosts.exclude</name>
        <value>/opt/app/hadoop-2.7.2/etc/hadoop/dfs.exclude</value>
     </property>

    ④刷新节点

      hdfs dfsadmin -refreshNodes

      注:此时web中,会出现正在退役,对其数据进行拷贝,待到出现已经退役,则退役成功。

    ⑤单独关闭节点(新节点中操作)

      hadoop-daemon.sh stop datanode
      yarn-daemon.sh stop nodemanager

    ⑥ 删除dfs.include(白名单) 中的新增节点的主机名称

    ⑦再次刷新节点

1-hadoop安装、ssh、节点退役与服役的更多相关文章

  1. hadoop 节点退役和服役

    节点的服役和退役(hdfs)---------------------- 黑白名单的组合情况-------------------------include //dfs.includeexclude ...

  2. hadoop新旧节点

    注意:黑白名单只出现在名称(nn)节点<!-- 白名单 --><property><name>dfs.hosts</name>/Users/yangya ...

  3. linux hadoop安装

    linux hadoop安装 本文介绍如何在Linux下安装伪分布式的hadoop开发环境. 在一开始想利用cgywin在 windows下在哪, 但是一直卡在ssh的安装上.所以最后换位虚拟机+ub ...

  4. Hadoop基础-Hadoop的集群管理之服役和退役

    Hadoop基础-Hadoop的集群管理之服役和退役 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 在实际生产环境中,如果是上千万规模的集群,难免一个一个月会有那么几台服务器出点故 ...

  5. Hadoop安装教程_单机(含Java、ssh安装配置)

    文章更新于:2020-3-24 按照惯例,需要的文件附上链接放在文首 文件名:Java SE Development Kit 8u241 文件大小:72 MB+ 下载链接:https://www.or ...

  6. 安装Hadoop系列 — 安装SSH免密码登录

    配置ssh免密码登录   1) 验证是否安装ssh:ssh -version显示如下的话则成功安装了OpenSSH_6.2p2 Ubuntu-6ubuntu0.1, OpenSSL 1.0.1e 11 ...

  7. 转载:Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04

    原文 http://www.powerxing.com/install-hadoop/ 当开始着手实践 Hadoop 时,安装 Hadoop 往往会成为新手的一道门槛.尽管安装其实很简单,书上有写到, ...

  8. Hadoop安装指引

    pre.ctl { font-family: "Liberation Mono", monospace } p { margin-bottom: 0.25cm; line-heig ...

  9. [Hadoop入门] - 2 ubuntu安装与配置 hadoop安装与配置

    ubuntu安装(这里我就不一一捉图了,只引用一个网址, 相信大家能力) ubuntu安装参考教程:  http://jingyan.baidu.com/article/14bd256e0ca52eb ...

随机推荐

  1. TP5 中引入第三方类库

    通过了解tp5的目录结构,我们知道其中有两个目录是纺织扩展类库文件的. extend是放置自定义或者其他类文件的. vendor目录是放置composer类库文件的. 当我们的第三方类库文件是下载的, ...

  2. Tornado cookie 笔记

    set_cookie()/get_cookie()的使用 def get(self): # self.get_cookie()获取cookie if not self.get_cookie('name ...

  3. centos 6,7 上cgroup资源限制使用举例

    在Centos6,7使用cgroup做内存限制,使用的配置包是libcgroup,具体方案和操作步骤如下. 步骤1:安装配置管理包 Centos 6: # yum install libcgroup ...

  4. jquery位置问题

    在页面中添加jquery时,一定要把jquery放在其他js文件前面!不然会出现"$ is not defined", 导致js无法正常运行.

  5. sublime text2建成C语言(C++)编译环境

    四个步骤: 下载安装Sublime text2 for windows 下载安装 MinGW 与 系统变量设置 Sublime Building System 设置 编译测试 一.下载安装Sublim ...

  6. Excel技巧--让折线图带面积更直观生动

    上图为带面积的折线图,比单纯的折线图更直观更好看. 制作办法: 1.先制作纯折线图: 2.再复制一遍数据列,选中图表,点击粘贴(ctrl+v): 3.右键图表,点击“更改图表类型”,对话框如下设置: ...

  7. xe5 android 控制蓝牙[转]

    用以下代码中的接口实现控制蓝牙的开.关及详细信息 unit Androidapi.JNI.BluetoothAdapter; // (c) RedTitan Technology 2013// JNI ...

  8. webdriver 启动chrome时加载配置

    Selenium操作浏览器是不加载任何配置的,网上找了半天,关于Firefox加载配置的多点,Chrome资料很少,下面是关于加载Chrome配置的方法:  一.加载所有Chrome配置 用Chrom ...

  9. 基于C#的PISDK研究(代码)

    本篇文章主要利用PISDK从PI服务器取数,介绍多种取数方法. 首先需要一些基础的代码,比如获取PI服务的: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 ...

  10. List<T>Distinct 过滤

    public class TestDuplicateDefine : IEqualityComparer<student> { public bool Equals(student x, ...