1、HDFS简介                                                                                                                                                                                         

  HDFS(Hadoop Distributed File System)是Hadoop项目的核心子项目,是分布式计算中数据存储管理的基础,是基于流数据模式访问和处理超大文件的需求而开发的,可以运行于廉价的商用服务器上。它所具有的高容错、高可靠性、高可扩展性、高获得性、高吞吐率等特征为海量数据提供了不怕故障的存储,为超大数据集合的应用带来了很多便利。

  Hadoop整合了众多文件系统,在其中有一个综合性的文件系统抽象,它提供了文件系统实现的各类接口,HDFS只是这个抽象文件系统的一个实例。Hadoop提供了一个高层的文件系统抽象类org.apache.hadoop.fs.FileSystem,这个抽象类展示了一个分布式文件系统,并有几个具体的实现,如表1-1所示。

表1-1 Hadoop文件系统

  Hadoop提供了许多文件系统的接口,用户可以使用URI方案选取合适的文件系统实现交互。

2、HDFS基础概念                                                                                                                                                                                 

2.1 数据库(block)

  • HDFS(Hadoop Disturbbuted File System)默认的最基本的存储单位是64M的数据块;
  • 和普通文件系统相同的是,HDFS的文件是被分成64M的数据块存储的;
  • 不同于普通文件系统的是,HDFS中,如果一个文件小于一个数据块的大小,并不占用整个数据块存储空间;  

2.2 NameNode和DataNode

  HDFS体系结构中有两类节点,一类是NameNode,又叫“元数据节点”;另一类是DataNode,又叫“数据节点”。这两类节点分别是承担Master和Worker具体任务的执行节点。

  1)元数据节点用来管理文件系统的命名空间

  • 其将所有的文件和文件夹的元数据保存在一个文件系统树中;
  • 这些信息也会在硬盘上保存成以下文件:命名空间镜像(namespace image)及修改日志(edit log);
  • 其还保存了一个文件包括哪些数据块,分布在哪些数据节点上,然而这些信息并不存储在硬盘上,而是在系统启动的时候从数据节点收集而成的;      

  2)数据节点是文件系统中真正存储数据的地方

  • 客户端(client)或者元数据信息(namenode)可以向数据节点请求写入或者读出数据块;
  • 其周期性的向元数据节点汇报其存储的数据块信息;  

  3)从元数据节点(secondary namenode)

  • 从元数据节点并不是元数据节点出现问题时候的备用节点,它和元数据节点负责不同的事情;
  • 其主要功能就是周期性将元数据节点的命名空间镜像文件盒修改日志合并,以防日志文件过大(这点在下面会详细叙述);
  • 合并过后的命名空间镜像文件也在元数据节点保存了一份,以防元数据节点失败的时候,可以恢复;  

2.3 元数据节点目录结构

  

  VERSION文件是java properties文件,保存了HDFS的版本号。

  • layoutVersion是一个负整数,保存了HDFS的持续化在硬盘上的数据结构的格式版本号;
  • namespaceID是文件系统的唯一标识符,是在文件系统初次格式化时生成的;
  • Ctime此处为0;
  • storageType表示此文件夹中保存的是元数据节点的数据结构;  

  

2.4 数据节点的目录结构

  

  • blk_<id>保存的是HDFS的数据块,其中保存了具体的二进制数据;
  • blk_<id>.meta保存的是数据块的熟悉信息:版本信息、类型信息、checksum;
  • 当一个目录中的数据块到达一定数量的时候,则创建子文件夹来保存数据块及数据块属性信息;

2.5 文件系统命名空间映像文件及修改日志

  • 当文件系统客户端(client)进行写操作时,首先把它记录在修改日志中(edit log);
  • 元数据节点在内存中保存了文件系统的元数据信息,在记录了修改日志后,元数据节点在修改内存中的数据结构;
  • 每次写操作成功之前,修改日志都会同步(sync)到文件系统;
  • fsimage文件,也即命名空间映像文件,是内存中的元数据在硬盘上的checkpoint,它是一种序列化的格式,并不能在硬盘上直接修改;
  • 同数据的机制相似,当元数据节点失败时,则最新checkpoint的元数据信息从fsimage加载到内存中,然后逐一重新执行修改日志中的操作;
  • 从元数据节点就是用来帮助元数据节点将内存中的元数据信息checkpoint到硬盘上的;
  • checkpoint的过程如下:
    • 从元数据节点通知元数据节点生成新的日志文件,以后的日志都写到新的日志文件中;
    • 从元数据节点用http get从元数据节点获取fsimage文件及旧的日志文件;
    • 从元数据节点将fsimage文件加载到内存中,并执行日志文件中的操作,然后生成新的fsimage文件;
    • 从元数据节点将新的fsimage文件用http post传回元数据节点;
    • 元数据节点可以将旧的fsimage文件及旧的日志文件,换为新的fsimage文件盒新的日志文件(第一步生成的),然后更新fsimage文件,写入此次checkpoint的时间;
    • 这样元数据节点中的fsimage文件保存了最新的checkpoint的元数据信息,日志文件也重新开始,不会变的很大了;    

  

3、HDFS体系结构                                                  

  HDFS是一个主/从(Master/Slave)体系结构,从最终用户的角度来看,它就像传统的文件系统一样,可以通过目录路径对文件执行CRUD(Create、Read、Update、Delete)操作。但由于分布式存储的性质,HDFS集群拥有一个NameNode和一些DataNode。NameNode管理文件系统的元数据,DataNode存储实际的数据。客户端通过同NameNode和DataNodes的交互访问文件系统。客户端联系NameNode以获取文件的元数据,而真正的文件I/O操作是直接和DataNode进行交互的。

   

图3-1 Hadoop的体系结构

  1)NameNode、DataNode和Client

  • NameNode可以看作是分布式文件系统中的管理者,主要负责管理文件系统的命名空间、集群配置信息和存储块的复制等。NameNode会将文件系统的Metadata存储在内存中,这些信息主要包括了文件信息、每一个文件对应的文件块的信息和每一个文件块在DataNode的信息等;
  • DataNode是文件存储的基本单元,它将Block存储在本地文件系统中,保存了Block的Metadata,同时周期性的将所有存在的Block的信息发送给NameNode;
  • Client就是需要获取分布式文件系统文件的应用程序;

  2)文件写入

  • Client向NameNode发起文件写入的请求;
  • NameNode根据文件大小和文件块配置情况,返回给Client它所管理部分DataNode的信息;
  • Client将文件划分为多个Block,根据DataNode的地址信息,按顺序写入到每一个DataNode块中;  

  3)文件读取

  • Client向NameNode发起文件读取的请求;
  • NameNode返回文件存储的DataNode的信息;
  • Client读取文件信息;  

  HDFS典型的部署是在一个专门的机器上运行的NameNode,集群中的其他机器各运行一个DataNode;也可以在运行NameNode的机器上同时运行DataNode,或者一台机器上运行多个DataNode。一个集群只有一个NameNode的设计大大简化了系统架构。

4、HDFS的优缺点                                                 

4.1 HDFS的优点

  1)处理超大文件

  这里的超大文件通常是指百MB、甚至数百TB大小的文件。目前在实际应用中,HDFS已经能用来存储管理PB级的数据了。

  2)流式的访问数据

  HDFS的设计建立在更多地响应“一次写入、多次读写”任务的基础上。这意味着一个数据集一旦由数据源生成,就会被复制分发到不同的存储节点中,然后响应各种各样的数据分析任务请求。在多数情况下,分析任务都会涉及数据集中的大部分数据,也就是说,对HDFS来说,请求读取整个数据集要比读取一条记录更加高效

  3)运行于廉价的商用机器集群上

  Hadoop设计对硬件需求比较,只须要运行在低廉的商用硬件集群上,而无需昂贵的高可用性机器上。廉价的商用机器也就意味着大型集群中出现节点故障情况的概率非常高。这就要求设计HDFS时要充分考虑数据的可靠性、安全性及高可用性。

4.2 Hadoop的缺点

  1)不适合低延迟数据访问

  如果要处理一些用户要求时间比较短的低延迟应用请求,则HDFS不适合。HDFS是为处理大型数据集分析任务,主要是为达到数据吞吐量而设计的,这就可能要求以高延迟作为代价。

  改进策略:对于那些有低延迟要求的应用程序,HBase是一个更好的选择。通过上层数据管理项目来尽可能地补充这个不足。在性能上有了很大的提升,它的口号就是goes real time。使用缓存或多master设计可以降低client的数据请求压力,以减少延迟。还有就是对HDFS系统内部的修改,这就得权衡大吞吐量与低延迟了,HDFS不是万能的。

  2)无法高效存储大量小文件

  因为NameNode把文件系统的元数据放置在内存中,所以文件系统所能容纳的文件数目是由NameNode的内存大小来决定。一般来说,每一个文件、文件夹和Block需要占据150字节左右的空间,所以,如果你有100万个文件,每一个占据一个Block,你就至少需要300M内存。当前来说,数百万的文件还是可行的,当扩展到数十亿时,对于当前的硬件水平来说就没办法实现了。还有一个问题就是,因为Map task的数据是由splits来决定的,所以用MR处理大量的小文件时,就会产生过多的Maptask,线程管理开销将会增加作业时间。举个例子,处理10000M的文件,若每个split为1M,那就会有10000个Maptasks,会有很大的线程开销;若每个split为100M,则只有100个Maptasks,每个Maptask将会有更多的事情做,而线程的管理开销也将减少很多。

  改进策略:要想让HDFS能处理好小文件,有不少方法。

  • 利用SequenceFile、MapFile、Har等方式归档小文件,这个方法的原理就是把小文件归档起来管理,HBase就是基于此的。对于这种方法,如果想找回原来的小文件的内容,那就必须得知道与归档文件的映射关系;
  • 横向扩展,一个Hadoop集群能管理的小文件有限,那就把几个Hadoop集群拖在一个虚拟服务器后面,形成一个大的Hadoop集群。google也是这么干过的。
  • 多Master设计,这个作用显而易见了。正在研发中的GFS II也要改为分布式多Master设计,还支持Master的Failover,而且Block大小改为1M,有意要调优处理小文件啊;
  • 附带个Alibaba DFS的设计,也是多Master设计,它把Metadata的映射存储和管理分开了,由多个Metadata存储节点和一个查询Master节点组成; 

  3)不支持多用户写入及任意修改文件

  在HDFS的一个文件中只有一个写入者,而且写操作只能在文件末尾完成,即只能执行追加操作。目前HDFS还不支持多个用户同一个文件操作,以及在文件任意位置进行修改。

5、HDFS常用操作                                                  

  先说一下“hadoop fs”和“hadoop dfs”的区别,看两本Hadoop书上各有用到,但效果一样,求证与网络发现下面一解释比较中肯。
  粗略的讲,fs是个比较抽象的层面,在分布式环境中,fs就是dfs,但在本地环境中,fs是local file system,这个时候dfs就不能用。

5.1 文件操作

  1)列出HDFS文件

  

  2)列出HDFS目录下某个文档中的文件

   

  3)上传文件到HDFS

  

  4)将HDFS中文件复制到本地系统中

  

  5)删除HDFS下的文档

  

  6)查看HDFS下某个文件

  

  “hadoop fs”的命令远远不止这些,本小节的命令可以再HDFS上完成大多数常规操作。对于其他操作,可以通过“-help commandName”命令所列出的清单来进一步学习与探索。 

5.2 管理与更新

  1)报告HDFS的基本统计情况

  此处为你展示通过“-report”命令如何查看HDFS的基本统计信息:

     

  执行结果如下所示。

  

  2)退出安全模式

  NameNode在启动时自动进入安全模式。安全模式是NameNode的一种状态,在这个阶段,文件系统不允许有任何修改。安全模式的目的是在系统启动时检查各个DataNode上数据块的有效性,同时根据策略对数据块进行必要的复制或删除,当数据块最小百分比数满足的最小副本数条件时,会自动退出安全模式。

  系统显示“Name node is in safe mode”,说明系统正处于安全模式,这时只需要等待17秒即可,也可以通过下面的命令退出安全模式。

  

  成功退出安全模式的结果如下所示。

  

  3)进入安全模式

  在必要的情况下,可以通过以下命令把HDFS置于安全模式。

  

  执行结果如下所示。

  

  4)添加节点

  可扩展性是HDFS的一个重要特性,向HDFS集群中添加节点是很容易实现的。添加一个新的DataNode节点,首先在新加节点上安装好Hadoop,要和NameNode使用相同的配置(可以直接从NameNode复制),修改"/usr/hadoop/conf/master"文件,加入NameNode主机名。然后在NameNode节点上修改"/usr/hadoop/conf/slaves"文件,加入新节点主机名,再建立到新加点无密码的SSH连接,运行启动命令:

  

  5)负载均衡

  HDFS的数据在各个DataNode中的分布肯定很不均匀,尤其是DataNode节点出现故障或者新增DataNode节点时。新增数据块NameNode对DataNode节点的选择策略也有可能导致数据块分布的不均匀。用户可以使用命令重新平衡DataNode的数据块的分布:

  

  执行命令前,DataNode节点上数据分布情况,如下所示。

  

  

  负载均衡完毕后,DataNode节点上数据的分布情况,如下所示。

  

  执行负载均衡命令,如下所示。

  

    

  感谢原作者,链接:http://www.cnblogs.com/xia520pi/archive/2012/05/28/2520813.html

HDFS初探之旅(一)的更多相关文章

  1. HDFS初探之旅(二)

    6.HDFS API详解 Hadoop中关于文件操作类疾病上全部在"org.apache.hadoop.fs"包中,这些API能够支持的操作包含:打开文件.读写文件.删除文件等. ...

  2. 非常不错 Hadoop 的HDFS (Hadoop集群(第8期)_HDFS初探之旅)

    1.HDFS简介 HDFS(Hadoop Distributed File System)是Hadoop项目的核心子项目,是分布式计算中数据存储管理的基础,是基于流数据模式访问和处理超大文件的需求而开 ...

  3. Hadoop集群(第8期)_HDFS初探之旅

    1.HDFS简介 HDFS(Hadoop Distributed File System)是Hadoop项目的核心子项目,是分布式计算中数据存储管理的基础,是基于流数据模式访问和处理超大文件的需求而开 ...

  4. Hadoop集群_HDFS初探之旅

    1.HDFS简介 HDFS(Hadoop Distributed File System)是Hadoop项目的核心子项目,是分布式计算中数据存储管理的基础,是基于流数据模式访问和处理超大文件的需求而开 ...

  5. Hadoop 博文整理

    参考文章##搭建 使用yum安装CDH Hadoop集群   http://blog.javachen.com/2013/04/06/install-cloudera-cdh-by-yum/   Ha ...

  6. Unity3D游戏开发初探—1.跨平台的游戏引擎让.NET程序员新生

    一.Unity3D平台简介 Unity是由Unity Technologies开发的一个让轻松创建诸如三维视频游戏.建筑可视化.实时三维动画等类型互动内容的多平台的综合型游戏开发工具,是一个全面整合的 ...

  7. Android 性能测试初探(六)

    书接前文 Android 性能测试初探之功耗(五) 本节聊聊性能测试的最后一项- 流量,当然我所指的性能测试是针对大部分应用而言的,可能还有部分应用会关注网速.弱网之类的测试,但本系列文章都不去一一探 ...

  8. hadoop初识

    搞什么东西之前,第一步是要知道What(是什么),然后是Why(为什么),最后才是How(怎么做).但很多开发的朋友在做了多年项目以后,都习惯是先How,然后What,最后才是Why,这样只会让自己变 ...

  9. about云资源汇总V1,3

    mongodb文档与视频资料分享 1.mongodb1-72.mongodb8-17集含代码3.MongoDB_and_Python学习笔记4.深入学习MongoDb5.PHP&MongoDB ...

随机推荐

  1. Jenkins MultiJob

    前提:项目有十几个服务每次发版/更新服务需要一个个去编译 目的:希望能够建立一个任务一次构建可以批量编译很多服务,并且需要输入一个参数指定编译的分支 需要插件: MultiJob 安装插件 1.在Je ...

  2. 折腾systemd-nspawn运行centos7

    Archlinux创建Debian/Ubuntu的systemd-nspawn容器是很简单的,因为有debootstrap软件.某天我突然想装个centos7玩玩,搜了半天没发现有什么类似于deboo ...

  3. (原创)WinForm中莫名其妙的小BUG——ComboBox 尺寸高度问题

    一.前言 使用WinForm很久了,多多少少遇到一些小BUG. 这些小BUG影响并不严重,而且只要稍微设置一下就能正常使用,所以微软也一直没有修复这些小BUG. 本来并不足以写篇文章去记录,但是昨天遇 ...

  4. Linux驱动实践:带你一步一步编译内核驱动程序

    作 者:道哥,10+年嵌入式开发老兵,专注于:C/C++.嵌入式.Linux. 关注下方公众号,回复[书籍],获取 Linux.嵌入式领域经典书籍:回复[PDF],获取所有原创文章( PDF 格式). ...

  5. Linux系统查看磁盘可用空间的5个命令

    大家好,我是良许. 工作中,经常会遇到磁盘爆满的情况,尤其是一台服务器运行了 N 年之后,里面会充满各种各样垃圾文件,比如:编译产生的中间文件.打包的镜像文件.日志文件,等等. 别问我怎么知道,我上家 ...

  6. NOIP2021游记(退役记)

    11月 13日 停课了 学了一上午+一晚上的分块. 下午月赛切掉两道题之后xzh发现E题是道树剖,果断开始切E. 结果: 做了快两个小时还是0分. 11月 14日 上午把黄题冲上了100,绿题冲上了5 ...

  7. [bzoj1068]压缩

    用f[i][j][0/1]表示区间[i,j],i之前有没有M的最少需要多少个字符,然后分两种情况:1.可以分为两个,转移到dp[l][mid][0]+1:2.枚举断点,但当前面有M时,后面的这个不能重 ...

  8. [loj2477]劈配

    考虑依次选择每一位考生,设当前选到第$i+1$位,前i个分别为$p1,p2,--pi$(注意:这里只确定了导师的志愿编号),然后枚举第$p_{i+1}$,通过网络流建图+判定,复杂度为$o(nm*f( ...

  9. 理解ASP.NET Core - 过滤器(Filters)

    注:本文隶属于<理解ASP.NET Core>系列文章,请查看置顶博客或点击此处查看全文目录 Filter概览 如果你是从ASP.NET一路走过来的,那么你一定对过滤器(Filter)不陌 ...

  10. 『学了就忘』Linux文件系统管理 — 60、Linux中配置自动挂载

    目录 1.自动挂载 2.如何查询系统下每个分区的UUID 3.配置自动挂载 4./etc/fstab文件修复 上一篇文章我们说明了手动分区讲解,对一块新硬盘进行了手动分区和挂载. 但是我们发现重启系统 ...