注意:黑白名单只出现在名称(nn)节点
<!-- 白名单 -->
<property>
<name>dfs.hosts</name>/Users/yangyanqing/文档/hadoop添加新节点+退役旧节点.txt
<value></value>
<description>包含允许连接nn的主机名列表(文件名),必须是绝对路径,如果为空,所有主机都可以连接</description>
</property>
<!-- 黑名单 -->
<property>
<name>dfs.hosts.exclude</name>
<value></value>
<description>包含不允许连接nn的主机名列表(文件名),必须是绝对路径,如果为空表示没有主机在黑名单中</description>
</property>
例子:
0.克隆新主机,软件安装与配置。
0.1:修改主机名
[vim /etc/hosts]
0.2:静态ip
0.2.1:[vim /etc/sysconfig/network-scriots/ifcfg-eno...]
0.2.2:[vim /etc/resolv.conf]
nameserver 192.168.23.2
0.2.3:重启网络服务
service network restart
0.2.4:关闭防火墙
service firewalld stop
0.2.5:防火墙开机关闭
chkconfig firewalld off
0.3:ssh[s101]
0.3.1:[vim /etc/hosts]
0.3.2:拷贝s101公钥到s106
ssh-copy-id root@s106
0.3.3:添加分发配置主机
$>vim /usr/local/bin/.hosts
追加 s106
0.3.4:s106安装rsync
yum install -y rsync
0.3.5:分发
$>xsync.sh /etc/hosts
$>rsync -rl /soft/hadoop* root@s106:/soft/
$>rsync /etc/profile root@s106:/etc/

软件
环境变量
============================= hdfs添加新节点 =============================
1.添加新主机在白名单。注:dfs_include.conf文件内放置添加新主机名
[/soft/hadoop/etc/hadoop/dfs_include.conf]
s102
s103
s104
s106
[hdfs-site.xm]
<property>
<name>dfs.hosts</name>
<value>/soft/hadoop/etc/hadoop/dfs_include.conf</value>
</property>
2.刷新名称节点
$>hdfs dfsadmin -refreshNodes
4.更新slaves文件(把新添加主机名加进去)
s102
s103
s104
s106
5.启动新节点的datanode进程和nodemanager进程
//登陆s106(source /etc/profile 使配置文件生效)
$>hadoop-daemon.sh start datanode
6.检查webui即可。
============================= hdfs退役旧节点 =============================
1.添加下线节点主机名到黑名单,不跟新白名单
[/soft/hadoop/etc/hadoop/dfs_exclude.conf]
s104
[hdfs-site.xm]
<property>
<name>dfs.hosts.exclude</name>
<value>/soft/hadoop/etc/hadoop/dfs_exclude.conf </value>
</property>
2.刷新名称节点
$>hdfs dfsadmin -refreshNodes
3.刷新yarn
4.webui查看状态是否下线中,开始负责block到其他节点。(下线过程就是旧节点数据复制到新节点上面,副本数始终保持在3个,如果副本数小于3,则没有新节点备份数据,webui会始终保持下线状态)
5.当所有数据节点报告已退役,说明所有block复制完成,下线节点。
6.从白名单删除节点,并运行刷新新节点
$>hdfs dfsadmin -refreshNodes
7.删除slave文件的节点。

============================= yarn添加新节点 =============================
1.添加新主机在白名单。注:dfs_include.conf文件内放置添加新主机名
[/soft/hadoop/etc/hadoop/yarn_include.conf]
s102
s103
s104
s106
[yarn-site.xm]
<property>
<name>yarn.resourcemanager.nodes.include-path</name>
<value>/soft/hadoop/etc/hadoop/yarn_include.conf</value>
</property>
3.刷新yarn节点
$>yarn rmadmin -refreshNodes
4.更新slaves文件(把新添加主机名加进去)
s102
s103
s104
s106
5.启动新节点的datanode进程和nodemanager进程
//登陆s106(source /etc/profile 使配置文件生效)
$>hadoop-daemon.sh start datanode
6.检查webui即可。
============================= yarn退役旧节点 =============================
1.添加下线节点主机名到黑名单,不跟新白名单
[/soft/hadoop/etc/hadoop/yarn_exclude.conf]
s104
[yarn-site.xm]
<property>
<name>yarn.resourcemanager.nodes.exclude-path</name>
<value>/soft/hadoop/etc/hadoop/yarn_exclude.conf </value>
</property>
2.刷新名称节点
$>yarn rmadmin -refreshNodes
3.刷新yarn
4.webui查看状态是否下线中,开始负责block到其他节点。(下线过程就是旧节点数据复制到新节点上面,副本数始终保持在3个,如果副本数小于3,则没有新节点备份数据,webui会始终保持下线状态)
5.当所有数据节点报告已退役,说明所有block复制完成,下线节点。
6.从白名单删除节点,并运行刷新新节点
$>yarn rmadmin -refreshNodes
7.删除slave文件的节点。

hadoop新旧节点的更多相关文章

  1. Hadoop日记Day15---MapReduce新旧api的比较

    我使用hadoop的是hadoop1.1.2,而很多公司也在使用hadoop0.2x版本,因此市面上的hadoop资料版本不一,为了扩充自己的知识面,MapReduce的新旧api进行了比较研究. h ...

  2. Hadoop 新 MapReduce 框架 Yarn 详解

    Hadoop 新 MapReduce 框架 Yarn 详解: http://www.ibm.com/developerworks/cn/opensource/os-cn-hadoop-yarn/ Ap ...

  3. Hadoop 新 MapReduce 框架 Yarn 详解【转】

    [转自:http://www.ibm.com/developerworks/cn/opensource/os-cn-hadoop-yarn/] 简介: 本文介绍了 Hadoop 自 0.23.0 版本 ...

  4. MapReduce简述、工作流程及新旧API对照

    什么是MapReduce? 你想数出一摞牌中有多少张黑桃.直观方式是一张一张检查而且数出有多少张是黑桃. MapReduce方法则是: 1. 给在座的全部玩家中分配这摞牌. 2. 让每一个玩家数自己手 ...

  5. Hadoop动态增加节点与删除节点

    Hadoop的全分布式安装网上也很多教程,踩过很多坑,整理不出来了……赶紧把增加删除节点留住. 均衡数据 (1)设置数据传输带宽为64M(默认值比较低) hdfs dfsadmin -setBalan ...

  6. Android新旧版本Notification

    Android新旧版本Notification 在notification.setLatestEventInfo() 过时了 以前: NotificationManager mn = (Notific ...

  7. Matlab神经网络函数newff()新旧用法差异

    摘要 在Matlab R2010a版中,如果要创建一个具有两个隐含层.且神经元数分别为5.3的前向BP网络,使用旧的语法可以这样写: net1 = newff(minmax(P), [5 3 1]); ...

  8. [ACM_数学] Taxi Fare [新旧出租车费差 水 分段函数]

    Description Last September, Hangzhou raised the taxi fares. The original flag-down fare in Hangzhou ...

  9. Flex布局新旧混合写法详解(兼容微信)

    原文链接:https://www.usblog.cc/blog/post/justzhl/Flex布局新旧混合写法详解(兼容微信) flex是个非常好用的属性,如果说有什么可以完全代替 float 和 ...

随机推荐

  1. html5中本地存储概念是什么?

    html5中的Web Storage包括了两种存储方式:sessionStorage和localStorage.sessionStorage用于本地存储一个会话中的数据,这些数据只有在同一个会话中的页 ...

  2. div 清除浮动的四种方法

    概述:为了解决父级元素因为子级内部高度为0的问题 (很多情况 不方便给父级元素高,因为不知道有多少内容,让里面的盒子自动撑起高度),清除浮动本质叫闭合浮动更好一些,清除浮动就是把浮动的盒子关到里面,让 ...

  3. footer始终在页面最底部的方法(问题待检验)

    一.css方法 <style type="text/css"> html,body{ height: 100%; } body{ display: flex; flex ...

  4. 8.Spring整合Hibernate_2_声明式的事务管理(Annotation的方式)

    声明式的事务管理(AOP的主要用途之一) (Annotation的方式) 1.加入annotation.xsd 2.加入txManager bean 3.<tx:annotation-drive ...

  5. java 使用POI导出百万级数据

    先看结果吧,这只是测试其中有很多因数影响了性能. 表总数为:7千多万,测试导出100万 表字段有17个字段 最终excel大小有60多兆 总耗时:126165毫秒 差不多2分多钟 其核心简单来说就是分 ...

  6. 判断一个python字符串中是否包含中文字符

    #在python中一个汉字算一个字符,一个英文字母算一个字符 #用 ord() 函数判断单个字符的unicode编码是否大于255即可. def is_contain_chinese(check_st ...

  7. Hadoop_13_Hadoop Shell脚本采集日志上传到HDFS

    案例1:开发shell采集脚本 1.点击流日志每天都10T,在业务应用服务器上,需要准实时上传至数据仓库(Hadoop HDFS)上 2.一般上传文件都是在凌晨24点操作,由于很多种类的业务数据都要在 ...

  8. Centos使用光盘yum源

    yum查看所有源 yum repolist all 方法一:本机使用光盘源安装软件的设置 mkdir /media/cdrom mount /dev/cdrom  /media/cdrom vim / ...

  9. P4390 [BOI2007]Mokia 摩基亚 (CDQ解决三维偏序问题)

    题目描述 摩尔瓦多的移动电话公司摩基亚(Mokia)设计出了一种新的用户定位系统.和其他的定位系统一样,它能够迅速回答任何形如"用户C的位置在哪?"的问题,精确到毫米.但其真正高科 ...

  10. redis四种部署方式

    1.单点 2.主从 3.哨兵 4.集群