MapReduce运行流程具体解释
在hadoop中。每一个mapreduce任务都会被初始化为一个Job。
每一个Job又能够分为两个阶段:map阶段和reduce阶段。这两个阶段分别用两个函数来表示,即map函数和reduce函数。map函数接收一个<key,value>形式的输入,然后产生相同为<key,value>形式的中间输出,hadoop会负责将全部具有相同中间key值的value集合到一起传递给reduce函数,reduce函数接收一个如<key,(list
of values)>形式的输入,然后对这个value集合进行处理并输出结果,reduce的输出 也是<key,value>形式的。
为了方便理解,分别将三个<key,value>对标记为<k1,v1>、<k2,v2>、<k3,v3>。那么上面所述的过程就能够用下图来表示了。
1、InputFormat()和InputSplit
InputSplit是hadoop中用来把输入数据传送给每一个单独map。InputSplit存储的并不是数据本身,而是一个分片长度和一个记录数据位置的数组。生成InputSplit的方法能够通过InputFormat()来设置。
当数据传送给map时,map会将输入分片传送到InputFormat()上,InputFormat()则调用getRecordReader()方法生成RecordReader。RecordReader再通过createKey()、createValue()方法创建可供map处理的<key,value>对,即<k1,v2>。简而言之,InputFormat()方法是用来生成可供map处理的<key,value>对的。
TextInputFormat是hadoop默认的输入方法,在TextInputFormat中,每一个文件(或当中一部分)都会单独作为map的输入,二这是继承自FileInputFoemat的。之后。每行数据都会生成一条记录。每条记录则表示成<key,value>形式:
key值是每一个数据的记录在数据分片中的字节偏移量,数据类型是LongWritable;
value值是每行的内容,数据类型是Text。
2、OutputFormat()
对于每一种输入格式都有一种输出格式与其相应。
相同,默认的输出格式是TextOutputFormat。这样的输出方式与输入类似,会将每条记录以一行的形式存入文本文件。
只是,他的键和值能够是随意形式的。由于程序内部会调用toString方法将键和值转化为string类型再输出。
3、map()
map()函数继承自MapReduceBase,而且它实现了Mapper接口,此接口是一个范型类型,它有4种形式的參数,分别用来指定Map()的输入key值类型、输入value值类型、输出key值类型和输出value值类型。
4、reduce()
与map()类似,reduce函数也继承自MapReduceBase,须要实现Reducer接口,Reduce函数以Map()的输出作为输入。
负责控制及调度MapReduce的Job的是JobTracker。负责运行MapReduce的Job的是TaskTracker。
当然,MapReduce在运行时是分成Map Task和Reduce Task来处理的,而不是完整的Job。
简单的控制流大概是这种:JobTracker调度任务给TaskTracker,TaskTracker运行任务时,会返回进度报告。
JobTracker则会记录进度的进行状况。假设某个TaskTracker上的任务运行失败。那么JobTracker会把这个任务分配给还有一台TaskTracker,直到任务运行完毕。
这里更具体的解释一下数据流。数据首先依照TextInputFormat形式被处理成多个InputSplit,然后输入到多个Map中,Map程序会读取InputSplit指定位置的数据,然后依照设定的方式处理该数据,最后写入到本地磁盘中,注意。这里并非写到HDFS上,这应该非常好理解,由于Map的输出在Job完毕后壳删除了。因此不须要存储到HDFS上,尽管存储到HDFS上会更安全,可是由于网络传输会减少MapReduce任务的运行效率,因此Map的输出文件时写在本地磁盘上的。
假设Map程序在没来得及将数据传送给Reduce时就崩溃了(程序出错或者机器崩溃),那么JobTracker仅仅须要另选一台机器又一次运行这个Task就能够了。
Reduce会读取Map的输出数据。合并value。然后将他们输出到HDFS上。
Reduce的输出会占用非常多的网络宽带,只是这与上传数据一样是不可避免的。
此外,还有两中情况须要注意:
1、MapReduce在运行过程中往往不止一个Reduce Task。Reduce Task的数量是能够程序指定的。
当存在多个Reduce Task时,每一个Reduce会搜集一个或多个key值。须要注意的是当出现多个Reduce Task时,每一个Reduce Task都会生成一个输出文件。
2、另外,没有Reduce任务的时候,系统会直接将Map的输出结果作为终于结果,同一时候Map Task的数量能够看做是Reduce Task的数量,即有多少个Map Task 就有多少个输出文件。
MapReduce运行流程具体解释的更多相关文章
- MapReduce运行流程分析
研究MapReduce已经有一段时间了.起初是从分析WordCount程序开始,后来开始阅读Hadoop源码,自认为已经看清MapReduce的运行流程.现在把自己的理解贴出来,与大家分享,欢迎纠错. ...
- Hadoop Mapreduce运行流程
Mapreduce的运算过程为两个阶段: 第一个阶段的map task相互独立,完全并行: 第二个阶段的reduce task也是相互独立,但依赖于上一阶段所有map task并发实例的输出: 这些t ...
- springmvc运行流程简单解释(源码解析,文末附自己画的流程图)
首先看一下DispatcherServlet结构: 观察HandlerExecutionChain对象的创建与赋值,这个方法用来表示执行这个方法的整条链. 进入getHandler方法: 此时的变量h ...
- mapreduce运行机制
详见:http://blog.yemou.net/article/query/info/tytfjhfascvhzxcyt243 谈mapreduce运行机制,可以从很多不同的角度来描述,比如说从ma ...
- MapReduce运行原理
MapReduce是一种编程模型,用于大规模数据集(大于1TB)的并行运算.MapReduce采用”分而治之”的思想,把对大规模数据集的操作,分发给一个主节点管理下的各个分节点共同完成,然后通过整合各 ...
- hadoop笔记之MapReduce的运行流程
MapReduce的运行流程 MapReduce的运行流程 基本概念: Job&Task:要完成一个作业(Job),就要分成很多个Task,Task又分为MapTask和ReduceTask ...
- [MapReduce_3] MapReduce 程序运行流程解析
0. 说明 Word Count 程序运行流程解析 && MapReduce 程序运行流程解析 1. Word Count 程序运行流程解析 2. MapReduce 程序运行流程图
- hadoop运行流程分析源代码级
前言: 最近一直在分析hadoop的运行流程,我们查阅了大量的资料,虽然从感性上对这个流程有了一个认识但是我总是感觉对mapreduce的运行还是没有一个全面的认识,所以决定从源代码级别对mapred ...
- Yarn应用程序运行流程剖析
Yarn(Yet Another Resource Negotiator)是一个Hadoop集群资源管理系统,Hadoop2时被引入,旨在提高MapReduce的性能,但YARN已足够通用,使得它可以 ...
随机推荐
- UI各种小控件的用法
今天给大家列举出来UI中的一些小控件的用法.方便大的学习与使用 一些方法和属性我们能够查看API文档.不必将每一个控件的功能都记住, 由于在使用的过程中,我们能够查看API文档.方便使用,我们仅仅要记 ...
- 自醒的觉悟与力量——leo鉴书59
30岁之后由于看得书多起来,阅读和写作也都有了自己的套路,与此相对的写书评之前须要看几遍书,然后我才干下笔的作者和作品越来越少了. 崔卫平是这种作者,而<正义之前>是我看了两遍才開始写评的 ...
- Light OJ 1288 Subsets Forming Perfect Squares 高斯消元求矩阵的秩
题目来源:Light OJ 1288 Subsets Forming Perfect Squares 题意:给你n个数 选出一些数 他们的乘积是全然平方数 求有多少种方案 思路:每一个数分解因子 每隔 ...
- Linux 系列- 基本命令
Linux 基本命令 转自:http://www.taobaotest.com/blogs/qa?bid=353 Linux是一个基于命令的系统,它有很多很强的命令. 但它也有桌面系统,比如KDE, ...
- Ztree自动触发第一个节点的点击事件
1.代码 $(function () { var setting = { //check属性放在data属性之后,复选框不起作用 //check: { // enable: true //}, dat ...
- zset 有序集合
zadd key score1 value1 score2 value2 .. 添加元素 redis 127.0.0.1:6379> zadd stu 18 lily 19 hmm 20 lil ...
- PHP验证器类Validator
Particle\Validator是一个小巧优雅的实用的PHP验证类库,提供了一个非常简洁的API.它无需依赖其他组件,提供友好的文档,并且有利于扩展. 安装 composer require pa ...
- React实现单例组件
问题背景 在工作中遇到了这样一个场景,写了个通用的弹窗组件,却在同一个页面中多次使用了该组件.当点击打开弹窗时,可想而知,一次性打开了多个弹窗,而业务需求只需要打开一个. 我个人在解决问题过程中的一些 ...
- RedHat/CentOS(Linux)双网卡bond(mode=6)
1. 将/etc/sysconfig/network-scripts/ifcfg-ens1f0和ifcfg-ens1f1文件备份到root目录下2. 修改/etc/sysconfig/network- ...
- 小数据量csv文件数据导入数据库(思路)
大致写写思路,因为sqlserver提供了可以直接导入的图形界面. 1.private static string GetConnectionString(string folderPath) // ...