Hadoop(一):概述
一、Hadoop是什么?
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。Hadoop框架最核心的设计包含两个方面,一是分布式文件系统(Hadoop Distributed File System),简称HDFS;二是分布式计算框架MapReduce。简单来说,HDFS为海量的数据提供了存储,MapReduce为海量的数据提供了计算。
Hadoop这个名字并不是一个缩写,是其创始人Doug Cutting的孩子给一头大象取的名字,这个名字本身并不具有描述性。
二、HDFS架构
一个分布式存储系统。
1、特点
(1)主从模式,一个主结点,多个从结点(默认三个)
(2)Block(块)为最小的存储单位,默认为64MB。一个文件划分为多个分块(chunk)进行存储
(3)一次写入,多次读取的访问模式
2、各结点的作用
(1)namenode,主结点,用来存储元数据信息,管理文件系统的命名空间。
(2)datanode,从结点,存储数据信息;并定期向namenode发送它们所储存块的列表。
(3)Secondary namenode,帮助NameNode合并编辑日志,减少NameNode的启动时间
namenode和datanode不难理解,但是Secondary namenode的作用看到过多种说法,有一种如下:
fsimage是namenode启动时对整个系统的快照
edit log是namenode启动后,对文件系统的改动序列,只有在namenode再次启动时,这些edit log才会合并到fsimage中
所以,如果edit log过于长,namenode启动就会非常慢
secondary namenode会定时去namenode取edit log,并更新到自己的fsimage上,之后复制到namenode中,namenode启动时直接用这个快照。
另一方面,因为secondary namenode的工作内容,当namenode出现故障时,也可以起到一定的作用
3、工作流程
简单理解的话,对于读数据来说,如上图所示:
1)客户端发送请求,从主结点返回数据存储的位置信息;
2)客户端根据具体的位置信息从datanode获取数据。
但是,真实过程要复杂的多
(1)客户端读取HDFS中的数据
1)客户端对DistributedFileSystem对象(分布式文件系统)调用open()方法打开文件系统
2)DistributedFileSystem对namenode创建一个RPC调用,请求文件地址
namenode返回文件各block所在的datanode地址(返回所有副本的地址,但是会按距离排序)
DistributedFileSystem返回一个FSDataInputStream对象(文件定位输入流)给客户端
FSDataInputStream封装了DFSInputStream对象(管理结点的I/O)
3)客户端对上述输入流调用read方法
4)DFSInputStream连接存储着文件起始块的距离最近的datanode,将数据从datanode返回到客户端
传输完毕,DFSInputStream会关闭与datanode的连接
5)对下一个block执行步骤4的操作
6)读取完毕,客户端对FSDataInputStream调用close()方法
(2)客户端将文件写入HDFS
下面的过程,首先创建一个新文件,并把数据写入该文件,最后关闭文件
1)客户端对DistributedFileSytem对象调用create()方法创建文件
2)DistributedFileSystem对namenode创建一个RPC调用,请求在文件系统的命名空间中创建一个新文件
namenode执行各种不同的检查确认这个文件不存在,以及客户端有创建这个文件的权限
如果检查不通过,文件创建失败并向客户端返回一个IOException异常
若通过,namenode增加一条创建新文件的记录,
DistributedFileSystem向客户端返回一个FSDataOutputStream对象
FSDataOutputStream封装了DFSOutputStream对象(管理结点的I/O)
3)客户端写入数据
DFSOutputStream将数据分成一个个的数据块,并写入内部队列,称为“数据队列”
DataStreamer处理数据队列,根据datanode列表要求namenode分配适合的新块来存储数据备份
一组datanode构成一个管线,假设复本为3,则管线中有3个结点
4)DataStreamer将数据块流式传输到管线中的第1个datanode,
该datanode存储数据并将它发送到第二个datanode,第二个到第三个同理
DFSOutputStream同时也维护着一个“确认队列”,等待datanode的确认回执
5)当收到确认回执时,才会删除队列中的数据信息
6)写入完毕,客户端对FSDataOutputStream调用close()方法
7)DistributedFileSystem向namenode发送文件写入完成信号
4、优点:
(1)容错性:数据多复本存储,如果datanode结点发生故障,会自动备份数据
(2)最短路径读取:namenode可以出最佳的路径,返回给文件流进行数据读取
(3)可扩展性:如果新增机器,namenode会自动开始存储数据到该机器。
4、缺陷
(1)单点故障问题:若namenode结点出现故障,整个HDFS将会失效
(2)安全问题:Client可以绕过NameNode直接对DataNode进行读写操作
三、MapReduce
一个基于分布式存储系统的分布式计算框架。
1、MapReduce程序执行步骤
(1)输入
(2)split过程:切分输入数据
(3)map过程(映射):将数据解析成key/value对
(4)shuffle&sort过程(分组排序):根据key值对键值对进行分组,将具有相同key的数据分成一组,每一组发给一个reduce处理
(5)Reduce过程(规约):对数据进行规约处理
(6)输出
2、MapReduce任务的执行流程
(1)用户启动程序:用户通过Hadoop命令启动运行MapReduce程序
(2)JobClient获取作业ID:JobClient联系JobTracker获取一个作业ID
(3)JobClient初始化准备:
① 将代码、配置、切片信息等复制到HDFS
② 根据输入数据路径、Block大小以及设定的分片大小对数据进行切割划分
③ 对输出目录进行检查
(4)JobClient提交作业:JobClient将作业ID和对应的资源信息提交各JobTracker
(5)JobTracer初始化作业:JobTracker将用户提交的信息封装到对象用于进行跟踪,同时将作业加入到作业调度器
(6)JobTracker获取分片信息:JobTracker获取每个分片的位置、边界等信息
(7)TaskerTracker获取任务:TaskTracker通过心跳机制从JobTracker获取任务信息(任务ID、数据位置)
(8)TaskerTracker获取数据:TaskerTracker从HDFS中读取数据,并复制到自己的机器上
(9)TaskerTracker运行任务:TaskerTracker启动子JVM运行任务
(10)具体的Map或Reduce执行:在子JVM中,Map或者Reduce任务进行执行。
执行完后,通知TaskTracker,TaskTracker再通知给JobTracker,再通知给客户端
备注:
(1)Job:作业,通常整个要处理的工作内容称为作业,一个Job包含多个Task
(2)Task:任务,一个作业划分为多个任务进行处理
(3)心跳机制:TaskTracker会以一定的频率向JobTracker进行信息反馈,报告当前所处的状态等等。
四、后续内容
1、Hadoop伪分布式环境搭建
2、MapReduce简单应用程序(Java/Python)和相关Hadoop命令
3、Hadoop生态圈简单介绍
Hadoop(一):概述的更多相关文章
- 大数据及Hadoop的概述
一.大数据存储和计算的各种框架即工具 1.存储:HDFS:分布式文件系统 Hbase:分布式数据库系统 Kafka:分布式消息缓存系统 2.计算:Mapreduce:离线计算框架 stor ...
- Hadoop| MapReduce01 概述
概述 分布式运算程序: 优点:易于编程:良好扩展性:高容错性:适合PB级以上海量数据的离线处理: 缺点:不擅长实时计算:不擅长流式计算:不擅长DAG有向图计算: 核心思想: 1)分布式的运算程序往往需 ...
- Hadoop - YARN 概述
一 概述 Apache Hadoop YARN (Yet Another Resource Negotiator,还有一种资源协调者)是一种新的 Hadoop 资源管理器,它是一个通用资源 ...
- 【大数据project师之路】Hadoop——MapReduce概述
一.概述. MapReduce是一种可用于数据处理的编程模型.Hadoop能够执行由各种语言编写的MapReuce程序.MapReduce分为Map部分和Reduce部分. 二.MapReduce的机 ...
- 一、Hadoop入门概述
一.Hadoop是什么 Hadoop是一个由Apche基金会所开发的分布式系统基础架构. 主要解决海量数据的存储和海量数据的分析计算问题. 广义上来说,Hadoop通常是指一个更广泛的概念—Hadoo ...
- hadoop核心组件概述及hadoop集群的搭建
什么是hadoop? Hadoop 是 Apache 旗下的一个用 java 语言实现开源软件框架,是一个开发和运行处理大规模数据的软件平台.允许使用简单的编程模型在大量计算机集群上对大型数据集进行分 ...
- Hadoop整体概述
目录 前言 core-site.xml hdfs-site.xml mapred-site.xml yarn-site.xml 一.HDFS HDFS的设计理念 HDFS的缺点 1.NameNode ...
- Hadoop & Spark
Hadoop & Spark 概述 Apache Hadoop 是一种通过服务集群并使用MapReduce编程数据模型完成大数据的分布式处理框架,核心模块包括:MapReduce,Hadoop ...
- hadoop伪分布模式的配置和一些常用命令
大数据的发展历史 3V:volume.velocity.variety(结构化和非结构化数据).value(价值密度低) 大数据带来的技术挑战 存储容量不断增加 获取有价值的信息的难度:搜索.广告.推 ...
- 【Hadoop离线基础总结】Hadoop High Availability\Hadoop基础环境增强
目录 简单介绍 Hadoop HA 概述 集群搭建规划 集群搭建 第一步:停止服务 第二步:启动所有节点的ZooKeeper 第三步:更改配置文件 第四步:启动服务 简单介绍 Hadoop HA 概述 ...
随机推荐
- React Native工程中TSLint静态检查工具的探索之路
建立的代码规范没人遵守,项目中遍地风格迥异的代码,你会不会抓狂? 通过测试用例的程序还会出现Bug,而原因仅仅是自己犯下的低级错误,你会不会抓狂? 某种代码写法存在问题导致崩溃时,只能全工程检查代码, ...
- python打造12306余票实时监控
# encoding=utf-8from Tkinter import *from ScrolledText import ScrolledTextimport urllib2import jsoni ...
- LibreOJ #539. 「LibreOJ NOIP Round #1」旅游路线(倍增+二分)
哎一开始看错题了啊T T...最近状态一直不对...最近很多傻逼题都不会写了T T 考虑距离较大肯定不能塞进状态...钱数<=n^2能够承受, 油量再塞就不行了...显然可以预处理出点i到j走c ...
- selenium - webdriver - 截图方法get_screenshot_as_file()
WebDriver提供了截图函数get_screenshot_as_file()来截取当前窗口. from selenium import webdriver from time import sle ...
- iOS之富文本(二)
之前做项目时遇到一个问题: 使用UITextView显示一段电影的简介,由于字数比较多,所以字体设置的很小,行间距和段间距也很小,一大段文字挤在一起看起来很别扭,想要把行间距调大,结 ...
- vim,删除所有
vim 删除所有内容:方法1: 按ggdG方法2: :%d
- react-native安装react-navigation后出现package-lock.json文件的坑
npm5.0开始安装后回生成一个新的package-lock.json文件.以致初始化好的react-native项目引入的依赖被删除. 目前解决办法.使用facebook的yarn add 第三方组 ...
- Spring整合JMS(四)——事务管理(转)
*注:别人那复制来的 Spring提供了一个JmsTransactionManager用于对JMS ConnectionFactory做事务管理.这将允许JMS应用利用Spring的事务管理特性.Jm ...
- bzoj 1455: 罗马游戏
1455: 罗马游戏 Time Limit: 5 Sec Memory Limit: 64 MB Description 罗马皇帝很喜欢玩杀人游戏. 他的军队里面有n个人,每个人都是一个独立的团.最 ...
- Linux系统中各目录的作用
/binbin是binary的缩写.这个目录沿袭了UNIX系统的结构,存放着使用者最经常使用的命令.例如cp.ls.cat,等等. /boot这里存放的是启动Linux时使用的一些核心文件. /dev ...