1.HDFS设计基础与目标

1.HDFS设计基础与目标

(1)硬件错误是常态,因此需要冗余。

(2)流式数据访问。即数据批量读取而非随机读写,Hadoop擅长做的是数据分析而不是事务处理。

(3)大规模数据集

(4)简单一致性模型。为了降低系统复杂度,对文件采用一次性写多次读的逻辑设计,即是文件一经写入,关闭,就再也不能修改

(5)程序采用“数据就近”原则分配节点执行。

2.HDFS体系结构

  • Namenode
  • Datanode
  • 事务日志
  • 映像文件
  • SecondaryNameNode

2.1Namenode

  • ○管理文件系统的命名空间
  • ○记录每个文件数据块在各个Datanode上的位置和副本信息
  • ○协调客户端对文件的访问
  • ○记录命名空间内的改动或空间本身属性的改动

    -○Namenode使用事务日志记录HDFS元数据的变化。使用映像文件存储文件系统的命名空间,包括文件映射,文件属性等。

2.2Datanode

  • ○负责所在物理节点的存储管理
  • ○一次写入,多次读取(不修改)
  • ○文件由数据块组成,典型代表的块大小为64MB
  • ○数据块尽量散步到各个节点

3.读取数据流程

客户端要访问HDFS中的一个文件,

(1)从namenode获得组成这个文件的数据块位置列表,

(2)根据列表知道存储数据块的datanode,

(3)访问datanode获取数据。

namenode并不参与数据实际传输

4.HDFS的可靠性

  • ○冗余副本策略
  • ○机架策略
  • ○心跳机制
  • ○安全模式
  • ○校验和
  • ○回收站
  • ○元数据保护
  • ○快照机制

4.1冗余副本策略

(1)可以在hdfs-site.xml中设置复制因子指定副本数量

(2)所有数据块都有副本

(3)Datanode启动时,遍历本地文件系统,产生一份hdfs数据块和本地文件的对应关系列表(blockreport)汇报给namenode

4.2机架策略

(1)集群一般放在不同机架上,机架间带宽要比机架内带宽要小

(2)HDFS的“机架感知”

(3)一般在本机架存放一个副本,在其它的机架再存放别的副本,这样可以防止机架失效时丢失数据,也可以提高带宽利用率

4.3心跳机制

  • namenode周期性从datanode接收心跳信号和块报告
  • namenode根据块报告验证元数据
  • 没有按时发送心跳的datanode会被标记为宕机,不会再给它任何I/O请求
  • 如果datanode失效造成副本数量下降,并且低于预先设置的阈值,namenode会检测出这些数据块,并在合适的时机进行重新复制
  • 引发重新复制的原因还包括数据副本本身损坏、磁盘错误、复制因子被增大等等

4.4安全模式

  • namenode启动时会先经过一个“安全模式”阶段
  • 安全模式阶段不会产生数据写
  • 在此阶段namenode收集各个datanode的报告,当数据块达到最小副本数以上时,会被认为是“安全”的
  • 在一定比例(可设置)的数据块被确定为”安全“后,再过若干时间,安全模式结束
  • 当检测到副本数不足的数据块时,该块会被复制直到达到最小副本数

4.5校验和

  • 在文件创立时,每个数据块都产生校验和
  • 校验和会作为一个单独隐藏文件保存在命名空间空间下
  • 客户端获取数据时可以检查校验和是否相同,从而发现数据块是否损坏
  • 如果正在读取的数据块损坏,则可以继续读取其它的副本

4.6回收站

  • 删除文件时,其实是放入回收站/trash
  • 回收站里的文件可以快速恢复
  • 可以设置一个时间阈值,当回收站里的文件的存放时间超过这个阈值,就被彻底删除,并且释放占用的数据块

4.7元数据保护

  • 映像文件刚和事务日志是namenode的核心数据。可以配置为拥有多个副本
  • 副本会降低namenode的处理速度,但增加安全性
  • namenode依然是单点,如果发生故障要手工切换

4.8快照

  • 支持存储某个时间点的映像,需要时可以使数据重返地球这个时间点的状态

5.HDFS文件操作

  • 命令行方式
  • API方式

    (这个具体操作留后再讨论)

hadoop笔记之hdfs的更多相关文章

  1. hadoop笔记之hdfs shell操作

    HDFS命令行操作 HDFS命令行操作 (以下是hadoop 1.x 版本的命令使用) 装好hadoop之前首先要进行一个格式化 hadoop namenode -format 运行之后,可以将文件夹 ...

  2. Hadoop学习笔记(2)-HDFS的基本操作(Shell命令)

    在这里我给大家继续分享一些关于HDFS分布式文件的经验哈,其中包括一些hdfs的基本的shell命令的操作,再加上hdfs java程序设计.在前面我已经写了关于如何去搭建hadoop这样一个大数据平 ...

  3. Hadoop集群-HDFS集群中大数据运维常用的命令总结

    Hadoop集群-HDFS集群中大数据运维常用的命令总结 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 本篇博客会简单涉及到滚动编辑,融合镜像文件,目录的空间配额等运维操作简介.话 ...

  4. Hadoop官方文档翻译——HDFS Architecture 2.7.3

    HDFS Architecture HDFS Architecture(HDFS 架构) Introduction(简介) Assumptions and Goals(假设和目标) Hardware ...

  5. hadoop 2.5 hdfs namenode –format 出错Usage: java NameNode [-backup] |

    在 cd  /home/hadoop/hadoop-2.5.2/bin 下 执行的./hdfs namenode -format 报错[hadoop@node1 bin]$ ./hdfs nameno ...

  6. Hadoop 分布式文件系统 - HDFS

    当数据集超过一个单独的物理计算机的存储能力时,便有必要将它分不到多个独立的计算机上.管理着跨计算机网络存储的文件系统称为分布式文件系统.Hadoop 的分布式文件系统称为 HDFS,它 是为 以流式数 ...

  7. Hadoop 2.x HDFS新特性

    Hadoop 2.x HDFS新特性 1.HDFS联邦    2. HDFS HA(要用到zookeeper等,留在后面再讲)    3.HDFS快照 回顾: HDFS两层模型     Namespa ...

  8. 何时使用hadoop fs、hadoop dfs与hdfs dfs命令(转)

    hadoop fs:使用面最广,可以操作任何文件系统. hadoop dfs与hdfs dfs:只能操作HDFS文件系统相关(包括与Local FS间的操作),前者已经Deprecated,一般使用后 ...

  9. 何时使用hadoop fs、hadoop dfs与hdfs dfs命令

    hadoop fs:使用面最广,可以操作任何文件系统. hadoop dfs与hdfs dfs:只能操作HDFS文件系统相关(包括与Local FS间的操作),前者已经Deprecated,一般使用后 ...

随机推荐

  1. AngularJs(三) deployd 服务的使用

    使用服务建立数据 在AngularJS(二)中,我搭建好了deployd服务,现在启动服务,创建正在的数据(开始是使用模拟数据),使用cmd命令 一.开启Mongodb数据. 贴图: 二:测试是否正常 ...

  2. 解析word中的表格

    由于word表格的特殊性,其本身中的数据本来就不够完善,不能够很好的知道其具体的合并.跨行的相关属性,表格的单位可能是PT或者是百分比,并且是共存的,为处理带来了一定的负担,本代码实现了一个将Word ...

  3. Database Initialization Parameters for Oracle E-Business Suite Release 12 (文档 ID 396009.1)

    In This Document Section 1: Common Database Initialization Parameters For All Releases Section 2: Re ...

  4. User cannot be resolved to a type

    出现 User cannot be resolved to a type 不知道具体问题出在哪里但是我经过将全路径输入并保存后错误消失 将User选上,然后点击保存就可以了! 最后我发现错误消失了!

  5. 在Linux下如何用Shell脚本读写XML?现有一个config.xml(转)

    在Linux下如何用Shell脚本读写XML?现有一个config.xml <?xml version="1.0" encoding="UTF-8"?&g ...

  6. WebService之Axis2

    写在前面 本文只说Axis2的用法. 1.下载与部署 需要下载两个文件: 下载地址:http://mirrors.cnnic.cn/apache/axis/axis2/java/core/1.7.1/ ...

  7. SQL Server 修改表

    alter table 可能用三种方式来完成. 第一种: 只修改元数据. 1.删除一个列. 2.一个行被增加而且空值被认为是所有行的新值. 3.当可变长度的列的长度增加时. 4.不允许为空的列被允许为 ...

  8. 提高Delphi的编译速度(bpl和bcp)

    delphi的编译速度提高(一) 此博文为原创,转载请注明出处 作者 :二娃 此博文的内容我曾经回答群内和论坛内的网友提问时回答过,现在写第一部分,第二部分,我再给出一个终极的提高速度的方法 我用过d ...

  9. Oracle_用户管理

    创建用户: CREATE USER user   --创建用户user IDENTIFIED {BY password | EXTERNALLY}  --设备用户密码,EXTERNALLY说用该用户由 ...

  10. OpenNebula openldap集成

    Preface: 当前写这篇post的心情可谓是即激动,又操蛋!............................ ruiy还是言归正传,人老了,赖的扯淡了,哥当前一心看向Tech(s),做个顾 ...