Hadoop记录-退役
一、datanode添加新节点
1.在dfs.include文件中包含新节点名称,该文件在名称节点的本地目录下
[白名单] [/app/hadoop/etc/hadoop/dfs.include]
2.在hdfs-site.xml文件中添加属性
<property> <name>dfs.hosts</name> <value>/app/hadoop/etc/dfs.include.txt</value></property>3.在nn上刷新节点
hdfs dfsadmin -refreshNodes
4.在slaves文件中添加新节点ip(主机名)
5.单独启动新节点中的datanode
hadoop-daemon.sh start datanode
二、datanode退役旧节点
1.添加退役节点的ip到黑名单 dfs.hosts.exclude,不要更新白名单
[/app/hadoop/etc/dfs.hosts.exclude]
2.配置hdfs-site.xml
<property> <name>dfs.hosts.exclude</name> <value>/app/hadoop/etc/dfs.hosts.exclude.txt</value></property>3.刷新nn的节点
hdfs dfsadmin -refreshNodes
4.查看WEBUI,节点状态在Decommission In Progress
5.当所有的要退役的节点都报告为Decommissioned,数据转移工作已经完成
6.从白名单删除节点,并刷新节点
hdfs dfsadmin -refreshNodes
yarn rmadmin -refreshNodes
7.从slaves文件中删除退役的节点
8.hdfs-site.xml文件内容
<property> <name>dfs.hosts.exclude</name> <value>/soft/hadoop/etc/dfs.hosts.exclude.txt</value></property>1.在dfs.include文件中包含新节点名称,该文件在名称节点的本地目录下
[白名单]
[/app/hadoop/etc/hadoop/dfs.include]
2.在yarn-site.xml文件中添加属性
<property> <name>yarn.resourcemanager.nodes.include-path</name> <value>/soft/hadoop/etc/dfs.include.txt</value></property>3.在rm上刷新节点
yarn rmadmin-refreshNodes
4.在slaves文件中添加新节点ip(主机名)
5.单独启动新节点中的资源管理器
yarn-daemon.sh start nodemanager
六、yarn退役新节点
1.添加退役节点的ip到黑名单 dfs.hosts.exclude,不要更新白名单
[/soft/hadoop/etc/dfs.hosts.exclude]
2.配置yarn-site.xml
<property>
<name>yarn-resourcemanager.nodes.exclude-path</name>
<value>/soft/hadoop/etc/dfs.hosts.exclude.txt</value>
</property>
3.刷新rm的节点
yarn rmadmin -refreshNodes
4.查看WEBUI,节点状态在Decommission In Progress
5.当所有的要退役的节点都报告为Decommissioned,数据转移工作已经完成
6.从白名单删除节点,并刷新节点
yarn rmadmin -refreshNodes
7.从slaves文件中删除退役的节点
Hadoop记录-退役的更多相关文章
- hadoop记录-Hadoop参数汇总
Hadoop参数汇总 linux参数 以下参数最好优化一下: 文件描述符ulimit -n 用户最大进程 nproc (hbase需要 hbse book) 关闭swap分区 设置合理的预读取缓冲区 ...
- Hadoop记录-hdfs转载
Hadoop 存档 每个文件均按块存储,每个块的元数据存储在namenode的内存中,因此hadoop存储小文件会非常低效.因为大量的小文件会耗尽namenode中的大部分内存.但注意,存储小文件所需 ...
- hadoop记录-hive常见设置
分区表 set hive.exec.dynamic.partition=true; set hive.exec.dynamic.partition.mode=nonstrict;create tabl ...
- Hadoop记录-日常运维操作
1.Active NameNode hang死,未自动切换 #登录当前hang死 Active namenode主机,停止Namenode,触发自动切换.hadoop-daemon.sh stop n ...
- Hadoop记录-hadoop2.x常用端口及定义方法
Hadoop集群的各部分一般都会使用到多个端口,有些是daemon之间进行交互之用,有些是用于RPC访问以及HTTP访问.而随着Hadoop周边组件的增多,完全记不住哪个端口对应哪个应用,特收集记录如 ...
- Hadoop记录-Hadoop NameNode 高可用 (High Availability) 实现解析
Hadoop NameNode 高可用 (High Availability) 实现解析 NameNode 高可用整体架构概述 在 Hadoop 1.0 时代,Hadoop 的两大核心组件 HDF ...
- Hadoop记录-MRv2(Yarn)运行机制
1.MRv2结构—Yarn模式运行机制 Client---客户端提交任务 ResourceManager---资源管理 ---Scheduler调度器-资源分配Containers ----在Yarn ...
- Hadoop记录-hadoop介绍
1.hadoop是什么? Hadoop 是Apache基金会下一个开源的大数据分布式计算平台,它以分布式文件系统HDFS和MapReduce算法为核心,为用户提供了系统底层细节透明的分布式基础架构. ...
- hadoop在线退役datanode
退役dn2echo "dn2" >>excludes echo "dn2" >>yarn-excludes sh refresh-nam ...
随机推荐
- python文章装饰器理解12步
1. 函数 在python中,函数通过def关键字.函数名和可选的参数列表定义.通过return关键字返回值.我们举例来说明如何定义和调用一个简单的函数: def foo(): return 1 fo ...
- 【Python 01】Python可以做什么
Python学习未来方向: 1.数据分析 2.自然语言处理 3.社交网络分析 4.人工智能 5.深度学习 6.计算机视觉 7.网络爬虫 8.量化交易
- Hbase技术笔记
一.Hbase介绍 二.Hbase的Region介绍 三.Hbase的写逻辑介绍 四.Hbase的故障恢复 五.Hbase的拆分和合并 如下ppt所示: 下面就来针对各个部分的内容来进行详细的介绍: ...
- python基础-小练习
三级菜单 要求: 打印省.市.县三级菜单 可返回上一级 可随时退出程序 购物车程序 要求: 用户名和密码存放于文件中,格式为:egon|egon123 启动程序后,先登录,登录成功则让用户输入工资,然 ...
- ubuntu下安装飞鸽传书
1.从官网下载Linux版本飞鸽传书(http://www.ipmsg.org.cn/) 2.解压后执行 ./QIpmsg 若报错 libstdc++.so.6: version `CXXABI_AR ...
- Spring Security(三十五):Part III. Testing
This section describes the testing support provided by Spring Security. 本节介绍Spring Security提供的测试支持. ...
- Eclipse中的快捷键
Ctrl+1:快捷修复(数字 1 不是字母 l) 将鼠标悬停到出错区域,按 Ctrl+1,出现快捷修复的菜单, 按上下方向键选择一种修复方式即可. 也可以将光标移动到出错区域,按 F2 + Enter ...
- 洛谷 P1101 单词方阵
题目链接 https://www.luogu.org/problemnew/show/P1101 题目描述 给一n×n的字母方阵,内可能蕴含多个"yizhong"单词.单词在方阵中 ...
- Vultr CentOS 7 安装 Docker
前言 最近在梳理公司的架构,想用 VPS 先做一些测试,然后就开始踩坑了!我用 Vultr 新买了个 VPS. 安装的 CentOS 版本: [root@dbn-seattle ~]# cat /et ...
- Vue-项目打包上线
一.打包生成dist目录 运行npm run build 进行打包,控制台显示“Build complete”表示打包完成了. npm run build 二.dist目录放到后端跟目录 打包后生成一 ...