hadoop2升级的那点事情(详解)
前言
前阵子,公司的hadoop从hadoop1.02升级到hadoop2.4.1,记录下升级的步骤和遇到的问题,和大家分享,希望别人可以少走一些弯路
技术选型
当前使用版本:
apache hadoop 1.0.2
hive 0.10
升级目标版本
Apache hadoop 2.4.1
Hive 0.13
升级风险点
Hdfs的升级
Hadoop升级最主要是hdfs的升级,hdfs的升级是否成功,才是升级的关键,如果升级出现数据丢失,则其他升级就变的毫无意义。
解决方法:
1. 备份hdfs的namenode元数据,升级后,对比升级前后的文件信息。
2. 单台升级datanode,观察升级前后的block数。
备注:文件数和block数不是完全一样,hadoop1和hadoop2的计数方式不一样,可能相差2%左右。
Yarn的升级
Yarn的升级,它相对hdfs的升级,升级压力没有那么大,但是由于以前hive使用mapred,而现在直接使用yarn,所以兼容问题,就比hdfs多不少,所幸我们的任务基本是使用hive,所以我们更多的是面临hive0.13和hive0.10的兼容问题。
而我们升级过程中,yarn的兼容问题,主要是资源的错误配置,兼容问题不多,而hive的升级,遇到更多的兼容问题,所以升级过程中,更多要测试的是hive升级导致的问题。
hdfs升级步骤
1.下载hadoop2.4.1,${HADOOP_HOMOE}/etc/hadoop/hdfs-site.xml中dfs.namenode.name.dir和dfs.datanode.data.dir属性的值分别指向Hadoop1.x的${HADOOP_HOME}/conf/hdfs-site.xml中dfs.name.dir和dfs.data.dir的值。
2.升级namenode:/usr/local/hadoop 2.4.1/sbin/hadoop-daemon.sh start namenode –upgrade
3.升级datanode:/usr/local/hadoop 2.4.1/sbin/hadoop-daemon.sh start datanode
升级hdfs花费的时间不长,就是和启动集群的时间要多2-3倍的时间,升级丢失数据的风险几乎没有。具体可以参考代码:
namenode升级: org.apache.hadoop.hdfs.server.namenode.FSImage.doUpgrade(如果想查看你的apache hadoop版本是否可以升级到hadoop2.4.1,可以在这里查阅代码判断,apache hadoop 0.20 以上的都可以升级到apache hadoop 2.4.1)
datanode升级: org.apache.hadoop.hdfs.server.datanode.DataStorage.doUpgrade
org.apache.hadoop.hdfs.server.datanode.BlockSender
如果升级失败,可以随时回滚,回滚,数据会回滚到升级前那一刻的数据,升级后的数据修改,全部失效,回滚启动步骤如下:
1. 启动namenode: /usr/local/hadoop1.0.2/bin/hadoop-daemon.sh start namenode –rollback
2. 启动datanode: /usr/local/hadoop1.0.2/bin/hadoop-daemon.sh start datanode –rollback
hdfs升级遇到的问题
1.datanode block数过多,导致启动的时候做block report时,由于rpc调用的字节数限制,导致block report失败。
解决方法是修改core-site.xml加入ipc.maximum.data.length属性,值设置为几百兆,根据具体情况调整。
2.同时启动一百多台datanode时,namenode会卡死,这个问题,应该是hadoop的bug。
解决方法是,写脚本,一台台启动datanode。
3.Namenode Full GC过多,每次GC,系统停顿3-4分钟
由于namenode保存元数据在内存,所以对老生代的压力比较大,每次full gc时,系统就会卡死几分钟,解决方法如下:
(1). 使用cms gc算法
(2). 修改新生代和老生代比例为1:2,如果是1:4,会造成大对象在做ygc时,大对象直接进入老生代,造成老生代内存快速增长,full gc更加频繁。
4.Namenode checkpoint超时
使用jdk1.6,在snn做checkpoin时,会超时,导致出错,但是换jdk1.7,不超时,不出错。
问题定位到snn请求namenode的jetty服务器的servlet时,文件传输完毕,但是NameNode的jetty没有关闭连接,导致snn这边读数据超时退出。
最后的解决方式,是在snn的读取数据的超时时间,从默认的1分钟修改为20分钟,NameNode的jetty会自动关闭连接,snn读取数据可以正常退出,该方式并不是一个优雅的解决方式。
5.NameNode突然运行的很慢,每几秒,rpc服务器就卡死10秒
由于在接口机启动了一个DataNode,而注册的时候,NameNode无法获取这个意外的DataNode的hostname,最致命的是,注册的时候,NameNode的底层系统类,获取了写锁,在写锁 后,做ip的反域名解析这种可能出现耗时10s的操作。
而DataNode的注册加入了重试机制,即使出错,也会不断重试,导致NameNode的服务相当缓慢。
最后的解决方案是kill掉接口机的DataNode,但是该问题的根本原因是hdfs的bug,需要修复这块代码:
org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.registerDatanode
org.apache.hadoop.hdfs.server.blockmanagement.DatanodeManager.registerDatanode
final String message = "hostname cannot be resolved (ip="
+ ip + ", hostname=" + hostname + ")";
LOG.warn("Unresolved datanode registration: " + message);
如果怀疑是非法DataNode连接NameNode导致集群缓慢,可以查log,找关键字: Unresolved datanode registration
6.HDFS做balancer很慢,一天居然只能balancer 2TB数据,导致集群的机器的存储,个别机器存储100%,大部分机器存储却很空闲
balancer代码被重写,以很保守的方式做balancer,而且参数根本无法配置优化,只能改代码。
修改org.apache.hadoop.hdfs.server.balancer.Balancer.blockMoveWaitTime从30s修改为1s,这个可以提升很大的balancer的速度,在我负责的生产环境一般一次迭代只需要5s完成,它却等了30s再检测,真是无力吐槽。
修改org.apache.hadoop.hdfs.server.balancer.Balancer.run(Collection<URI> namenodes, Parameters p, Configuration conf) ,注释掉以下代码
if (!done) {
Thread.sleep(sleeptime);
}
更多优化,请查阅org.apache.hadoop.hdfs.server.balancer.Balancer做优化。
优化后,一天也只能balancer 12TB-20TB左右,只是勉强满足要求。
继续优化,优化balancer的根本问题,提高balancer每次迭代中,datanode balancer的吞吐量,balancer过慢,是bug来的,请修改以下代码
org.apache.hadoop.hdfs.server.balancer.Balancer.Source.dispatchBlocks
(!srcBlockList.isEmpty() || blocksToReceive>0)) {
PendingBlockMove pendingBlock = chooseNextBlockToMove();
if (pendingBlock != null) {
+ noPendingBlockIteration=0;//添加这行代码,resetnoPendingBlockIteration,修复bug
// move the block
pendingBlock.scheduleBlockMove();
continue;
bug参考 https://issues.apache.org/jira/browse/HDFS-6621
还有final private static long MAX_BLOCKS_SIZE_TO_FETCH从2GB修改为300MB(重要,patch没有这个参数,但是不加,依然无法提高吞吐量)
优化后,balancer的吞吐量可以达到一天64TB。
7.高可用环境,standby namenode会间歇性卡死,而hdfs客户端偶尔会连接standby namenode,导致hdfs服务偶尔缓慢,经过排查,确定standby namenode每一分钟会做editlog的合并,合并的时候,会锁死FSNamenodeSystem的所有服务,导致standby namenode会间歇性出现3s的卡死,甚至10s的卡死。
代码问题在org.apache.hadoop.hdfs.server.namenode.ha.EditLogTailer.doTailEdits
bug修复参考 https://issues.apache.org/jira/browse/HDFS-6763
yarn升级步骤
由于任务计算都是使用hive,所以yarn的升级很简单,只是启动yarn就行了。唯一要注意的是,从mapreduce升级到yarn,资源分配方式变化了,所以要根据自己的生产环境修改相关的资源配置,yarn的兼容问题,遇到的很少。
反而在任务计算中遇到更多问题的是hive,hive从0.10升级到hive0.13,语法更加苛刻,严格,所以升级前,尽可能测试hive的兼容性,hive0.13可以运行在hadoop1.02,所以升级到hadoop2之前,先升级hive到hive0.13以上,遇到问题,也没什么好办法,就是改hive sql,改hive参数。
1yarn任务无故缓慢,经常一个简单任务本来需要30秒,经常会出现5分钟都无法跑成功。经过跟踪,发现是nodemanager启动container时,初始化container(下载jar包,下载job描述文件)代码是同步,修改代码,把初始化container的操作修改为并发,解决该问题。
代码问题在 org.apache.hadoop.yarn.server.nodemanager.DefaultContainerExecutor.startLocalize(该方法是synchronized)
bug修改参考 https://issues.apache.org/jira/browse/YARN-2730
hadoop2升级的那点事情(详解)的更多相关文章
- Hadoop2.2.0分布式安装配置详解[2/3]
前言 本文主要通过对hadoop2.2.0集群配置的过程加以梳理,所有的步骤都是通过自己实际测试.文档的结构也是根据自己的实际情况而定,同时也会加入自己在实际过程遇到的问题.搭建环境过程不重要,重要点 ...
- Hadoop2.2.0分布式安装配置详解[1/3]
前言 在寒假前的一段时间,开始调研Hadoop2.2.0搭建过程,当时苦于没有机器,只是在3台笔记本上,简单跑通一些数据.一转眼一两个月过去了,有些东西对已经忘了.现在实验室申请下来了,分了10台机器 ...
- Hadoop新生报到(一) hadoop2.6.0伪分布式配置详解
首先先不看理论,搭建起环境之后再看: 搭建伪分布式是为了模拟环境,调试方便. 电脑是win10,用的虚拟机VMware Workstation 12 Pro,跑的Linux系统是centos6.5 , ...
- Hadoop2.2.0分布式安装配置详解[3/3]
测试启动 按照下面的每一步执行,执行完一定要看输出的信息,注意warn或error或fatal的情况.因为这都是可能是问题出现的地方.出现一个问题,不解决,可能就会影响接下来的测试.这才是真正的工作量 ...
- hadoop2.2.0 centos 编译安装详解
http://blog.csdn.net/w13770269691/article/details/16883663 废话不讲,直切正题. 搭建环境:Centos x 6.4 64bit 1.安装JD ...
- Mysql5.5升级到5.6步骤详解 小版本大版本
http://blog.csdn.net/i_team/article/details/9935693 小版本升级,先关闭数据库,然后mv直接全部替换掉mysql目录下的bin/ ,lib/ ,sha ...
- MySQL5.7升级到8.0过程详解
前言: 不知不觉,MySQL8.0已经发布好多个GA小版本了.目前互联网上也有很多关于MySQL8.0的内容了,MySQL8.0版本基本已到稳定期,相信很多小伙伴已经在接触8.0了.本篇文章主要介绍从 ...
- Linux学习-linux系统下python升级到python3.6步骤详解,以及遇到的问题解决
说明:一般linux会自带pyhton2.7 1.首先下载源tar包 可利用linux自带下载工具wget下载,如下所示: wget http://www.python.org/ftp/python/ ...
- 从苦逼到牛逼,详解Linux运维工程师的打怪升级之路
做运维也快四年多了,就像游戏打怪升级,升级后知识体系和运维体系也相对变化挺大,学习了很多新的知识点. 运维工程师是从一个呆逼进化为苦逼再成长为牛逼的过程,前提在于你要能忍能干能拼,还要具有敏锐的嗅觉感 ...
随机推荐
- 可编辑的div元素去除粘贴复制带来的额外样式,实现纯文本粘贴
$(function(){ var update = function(original){ var new_content = $('.testmr').html(); var new ...
- appium+Python真机运行测试demo的方法
appium+Python真机运行测试demo的方法 一, 打开手机的USB调试模式 二, 连接手机到电脑 将手机用数据线连接到电脑,并授权USB调试模式.查看连接的效果,在cmd下运行命 ...
- Impossible to load an image in xcassets on bundle
Impossible to load an image in xcassets on bundle up vote5down votefavorite 3 I need to include imag ...
- 理解MySQL——索引与优化
转自:理解MySQL——索引与优化 写在前面:索引对查询的速度有着至关重要的影响,理解索引也是进行数据库性能调优的起点.考虑如下情况,假设数据库中一个表有10^6条记录,DBMS的页面大小为4K,并存 ...
- 使用递归方法遍历TreeView的节点如配置则勾选
自己在网上找了一段时间都没有找到取自数据库的值与TreeView中的节点值进行对比如匹配则勾选中CheckBox的资料,后面自己写了一个递归方法实现,现在记录起来以备需要时使用.在没写这递归方法前如果 ...
- win7绕过开机密码攻略
访问windows机器,经常会因为忘记了开机密码而苦恼.当然你也可以选择重装,这样最简单粗暴.如果有重要数据保存在C盘之类的(个人严重推荐不要保存到C盘),那就不是重装能解决的问题了.2014年12月 ...
- test「Python」流程&中文
#例1 text='dShArpen骑草泥马在马勒隔壁玩Python时看到一群SB绿茶婊在逗逼,马上的他马上吓尿了' iftext = '马' for letter in text.decode('u ...
- android 底层入门开发(二)
LED将为我闪烁:控制发光二极管 对于大多数Linux驱动来说,需要直接与硬件交互,本章主要介绍用Linux驱动来控制二极管的明暗,即通过Linux驱动发送数据控制开发板上LED灯的开关. 第一节介绍 ...
- Unix系统小知识(转)
Unix操作系统的小知识 2.VI添加行号/翻页/清屏 .在对话模式时(即输完Esc再输入: ),输入“:set number”可以将编辑的文本加上行号.跟玩俄罗斯方块一样方便的上下左右移动箭头的快捷 ...
- 计算机启动boot
原创博文:转载请标明出处:http://www.cnblogs.com/zxouxuewei 零.boot的含义 先问一个问题,"启动"用英语怎么说? 回答是boot.可是,boo ...