Hadoop集群管理--保证集群平稳地执行
本篇介绍为了保证Hadoop集群平稳地执行。须要深入掌握的知识。以及一些管理监控的手段,日常维护的工作。
HDFS
永久性数据结构
对于管理员来说。深入了解namenode,辅助namecode和datanode等HDFS组件怎样在磁盘上组织永久性数据很重要。
洞悉各文件的使用方法有助于进行故障诊断和故障检出。
namenode的文件夹结构
namenode被格式化后,将在${dfs.namenode.name.dir}/current 文件夹下。产生例如以下的文件夹结构:VERSION、edits、fsimage、fstime。
仅仅有深入学习namenode的工作原理。才干理解这些文件的用途。对于Hadoop集群管理员来说。这是有必要的。
辅助namenode的文件夹结构
在大型集群中,辅助namenode须要执行在一台专用机器上。保持和namenode基本一致的文件夹结构和数据。在主namenode发生问题时。能够从辅助namenode恢复数据。
datanode的文件夹结构
datanode不是格式化时创建的,而是启动时自己主动创建的。datanode的重要文件和文件夹例如以下所看到的:
dfs.data.dir 是在hadoop1.X中定义的,在Hadoop2.X中是在hdfs-site.xml中定义的 fs.datanode.data.dir 。
安全模式
namenode启动时,首先将映像文件(fsimage)加载内存。并运行编辑日志(edits)中的各项操作。
一系列操作之后,假设满足“最小复本条件”,namenode会在30秒内退出安全模式。所谓的最新复本调价指的是在整个文件系统中有99.9%的块满足最小复本条件(默认值时1,由dfs.replication.min属性设置)。
在启动一个刚刚格式化的HDFS集群时。由于系统中还没有不论什么块,所以namenode不会进入安全模式。
安全模式的属性设置例如以下:
安全模式操作命令:
hadoop dfsadmin -safemode get
hadoop dfsadmin -safemode wait
hadoop dfsadmin -safemode leave
hadoop dfsadmin -safemode enter
调整日志级别
log4j.logger.org.apache.hadoop.hdfs.server.namenode.FSNamesystem.audit=WARN
调整为INFO或者其它。
工具
dfsadmin工具
fsck工具
Hadoop提供fsck工具来检查HDFS中文件的健康状况。该工具会查找那些全部datanode中均缺失的块以及过少或过多复制的块。
使用命令:
hadoop fsck /
hadoop fsck / -move
hadoop fsck / -delete
datanode块扫描器
各个datanode执行一个快扫描器。定期检測本节点上的全部块。从而在client读到坏块之前及时地检測和修复坏块。能够依靠DataBlockScanner所维护的块列表依次扫描块,查看是否存在校验和错误。
扫描器还使用节流机制,来维持datanode的磁盘带宽(换句话说,块扫描器工作时仅占用一小部分磁盘带宽)。
默认情况下。块扫描器每隔三周(504小时)就会检測块,以应对可能的磁盘故障,这个周期由dfs.datanode.scan.period.hours属性设置。损坏的块被报给namenode,并被即时修复。
訪问网页:http://datanode:50075/blockScannerReport 获取该datanode的块检測报告。
加 ?Listblocks 參数会在报告中列出该datanode上全部的块及其最新验证状态。
均衡器
均衡器(balancer)程序是一个Hadoop守护进程,它将块从忙碌的datanode移到相对空暇的datanode。从而又一次分配块。同一时候坚持块复本放置策略,将复本分散到不同机架。以减少数据损坏率。
操作一直运行,直到均衡,即每一个datanode的使用率(该节点上已使用的空间和空间容量之间的比率)和集群的使用率(集群中已使用的空间与集群的空间容量之间的比率)很接近,差距不超过给定的阀值。
启动均衡器指令:start-blancer.sh ,-threshold參数指定阀值(百分比格式),默认10%。在不论什么时刻,集群中都仅仅执行一个均衡器。
在不同节点之间复制数据的带宽也是受限的。默认是1MB/s。能够通过hdfs-site.xml中的dfs.balance.bandwidthPerSec属性指定(单位是字节)。
监控
监控是系统管理的重要内容。监控的目标在于检測集群在何时未提供所期望的服务。
主守护进程是最须要监控的,包含主namenode、辅助namenode和jobtracker。
datanode和tasktracker常常出现问题;在大型集群中。故障率尤其高。
因此,集群须要保留额外的容量,如此一来,即使有一小部分节点宕机,也不影响整个系统的运作。
管理员也能够定期执行一些測试作业。以检查集群的健康状况。
日志
全部Hadoop守护进程都会产生日志文件。这些文件很有助于查明系统中发生的事件。
默认情况下。Hadoop生成的系统日志文件存放在$HADOOP_INSTALL/logs文件夹之中,也能够通过hadoop-env.sh文件里的HADOOP_LOG_DIR来进行改动。通常能够把日志文件存放在/var/log/hadoop文件夹中。实现的办法就是在hadoop-env.sh中增加一行:export HADOOP_LOG_DIR=/var/log/hadoop ,假设日志文件夹不存在,则会首先创建该文件夹,假设创建失败。请检查hadoop用户是否有权创建该文件夹。
设置日志级别
故障排查过程中,暂时设置日志级别很故意,有两种方法,网页和命令行。比如要对某台机器的JobTracker设置为DEBUG级别,能够例如以下:
a、訪问http://jobtracker-host:50030/logLevel,将org.apache.hadoop.mapred.JobTracker属性设置为DEBUG级别
b、hadoop daemonlog -setlevel jobtracker-host:50030 org.apache.hadoop.mapred.JobTracker DEBUG
获取堆栈轨迹
Hadoop守护进程提供一个网页,对正在守护进程的JVM中执行着的线程执行线程转储(Thread-dump)。
比如:http://jobtracker-host:50030/stacks获取jobtracker的线程转储。
度量
HDFS和MapReduce守护进程收集的事件和度量相关的信息,这些信息统称为度量(metric)。
比如,各个datanode会收集例如以下度量(还有很多其它):写入的字节、块的复本数、client发起的读操作请求数。
度量从属于特定的上下文,眼下,Hadoop使用dfs、mapred、rpc、jvm 这4个上下文。
度量在conf/hadoop-metrics.properties文件里配置。默认情况下,全部上下文都被配置成不公布度量。
经常使用的度量类:FileContext、GangliaContext、NullContextWithUpdateThread、CompositeContext。
java管理扩展(JMX)
JMX是一个标准的JAVA API,可监控和管理应用。
Hadop包含多个托管bean(MBean)。能够将Hadoop度量公布给支持JMX的应用。例如以下:
JDK自带的JConsole工具能够浏览JVM中MBean。很多第三方的监控和报警系统(如Nagios和Hyperic)均可查询MBean,因此通过这些系统使用JMX监控一个Hadoop集群就非常寻常,前提是启用远程訪问JMX功能和合理设置集群的安全级别,包含password认证、SSL连接和SSLclient认证等。
比較普遍的方案是,同一时候使用Ganglia和Nagios这种警告系统来监控Hadoop系统。Ganglia擅长高效地收集大量度量,并以图形化界面呈现;Nagios和类似系统擅长在某项度量的关键阀值被突破之后及时报警。
维护和升级
关于这部分。暂时先不深入学习,在工作过程中如有涉猎,再返回此处进一步记录。
Hadoop集群管理--保证集群平稳地执行的更多相关文章
- elasticsearch系列八:ES 集群管理(集群规划、集群搭建、集群管理)
一.集群规划 搭建一个集群我们需要考虑如下几个问题: 1. 我们需要多大规模的集群? 2. 集群中的节点角色如何分配? 3. 如何避免脑裂问题? 4. 索引应该设置多少个分片? 5. 分片应该设置几个 ...
- elasticsearch 集群管理(集群规划、集群搭建、集群管理)
一.集群规划 搭建一个集群我们需要考虑如下几个问题: 1. 我们需要多大规模的集群? 2. 集群中的节点角色如何分配? 3. 如何避免脑裂问题? 4. 索引应该设置多少个分片? 5. 分片应该设置几个 ...
- ES 集群管理(集群规划、集群搭建、集群管理)
一.集群规划 搭建一个集群我们需要考虑如下几个问题: 1. 我们需要多大规模的集群? 2. 集群中的节点角色如何分配? 3. 如何避免脑裂问题? 4. 索引应该设置多少个分片? 5. 分片应该设置几个 ...
- 【拆分版】Docker-compose构建Zookeeper集群管理Kafka集群
写在前边 在搭建Logstash多节点之前,想到就算先搭好Logstash启动会因为日志无法连接到Kafka Brokers而无限重试,所以这里先构建下Zookeeper集群管理的Kafka集群. 众 ...
- Hadoop - Ambari集群管理剖析
1.Overview Ambari是Apache推出的一个集中管理Hadoop的集群的一个平台,可以快速帮助搭建Hadoop及相关以来组件的平台,管理集群方便.这篇博客记录Ambari的相关问题和注意 ...
- MySQL 8 InnoDB 集群管理
使用 dba.checkInstanceConfiguration() 在添加实例到集群中前,使用该方法检查实例配置是否满足InnoDB 集群要求. 使用 dba.configureLocalInst ...
- Ambari 大数据集群管理
最近做了一个大数据项目,研究了下集群的搭建,现在将集群搭建整理的资料与大家分享一下!如有疑问可在评论区回复. 1前置配置 Centos7系统,每台系统都有java运行环境 全程使用root用户,避免安 ...
- 【MSP是什么】MSP认证之项目群管理学习总结
首先要说的是,我这篇体会是针对一定的背景的,不能算是一种通用的管理方式,只能是我自己的经验总结,能给大家平常的管理提供一点思路,我就很满足了.先说说背景,我所在公司做的是大型桌面应用软件,简单点说就是 ...
- Atitit 分布式管理 vs 集中式管理
Atitit 分布式管理 vs 集中式管理 1. 集中式管理缺点 1 1.1. 单点故障 1 1.2. 没有灵活性 1 1.3. 打败vs 征服 参考 尼可罗·马基雅弗利编著的<君主论> ...
随机推荐
- RocketMQ学习笔记(6)----RocketMQ的Client的使用 Producer/Consumer
1. 添加依赖 pom.xml如下: <dependency> <groupId>org.apache.rocketmq</groupId> <artifa ...
- 手把手教你如何新建scrapy爬虫框架的第一个项目(上)
前几天给大家分享了如何在Windows下创建网络爬虫虚拟环境及如何安装Scrapy,还有Scrapy安装过程中常见的问题总结及其对应的解决方法,感兴趣的小伙伴可以戳链接进去查看.关于Scrapy的介绍 ...
- git clone 和 git pull 代码无响应
记录一下今天 git 拉代码遇到的一些异常情况: 无论是项目目录下 git pull 还是直接 git clone 都不能正常拉代码: 异常情况1 ssh: connect to host gitee ...
- Linux Kernel 5.1 RC5发布
我们距离正式的Linux 5.1内核发布还有不到一个月的时间,而今天Linus Torvalds宣布推出预期的Linux Kernel 5.1 RC5版本.Linus Torvalds专门评论了Lin ...
- 【BZOJ 1303】 [CQOI2009]中位数图
[链接] 我是链接,点我呀:) [题意] 在这里输入题意 [题解] 注意是1..n的排列. 设b的位置为i. 设i右边的数字,比b大的为1,比b小的为-1. (i左边的位置数字也一样设置成1和-1 则 ...
- 【hdu 1890】Robotic Sort
[题目链接]:http://acm.hdu.edu.cn/showproblem.php?pid=1890 [题意] 给你n个数字; i从1到n; 每次让你把第i小的数和数组的第i个元素之间这段区间内 ...
- LaTeX argmin argmax 下标使用方法
本系列文章由 @YhL_Leo 出品,转载请注明出处. 文章链接: http://blog.csdn.net/yhl_leo/article/details/50036001 LaTeX中,使用arg ...
- HDU 4704 Sum Fermat定律
Problem Description Sample Input 2 Sample Output 2 Hint 1. For N = 2, S(1) = S(2) = 1. 2. The in ...
- 与Greenplum度过的三个星期
5月4日-5月24日.断断续续折腾了三个星期的Greenplum,总算告一段落了:扩容,发现扩不成容.仅仅好升级.升级,发现一堆错误,仅仅好暂停修复数据库:修好了,继续升级.升完级,发现错误.修啊修啊 ...
- Java - Thinking in Java 第2章 一切都是对象
Java是"纯粹"的面向对象的语言. 操作的标示符是对象的一个引用, new是创建一个对象. 存储位置: 寄存器\堆栈(引用)\堆(new)\常量存储(程序代码内部)\非RAM存储 ...