Hadoop学习笔记(7) ——高级编程
Hadoop学习笔记(7)
——高级编程
从前面的学习中,我们了解到了MapReduce整个过程需要经过以下几个步骤:
1.输入(input):将输入数据分成一个个split,并将split进一步拆成<key, value>。
2.映射(map):根据输入的<key, value>进生处理,
3.合并(combiner):合并中间相两同的key值。
4.分区(Partition):将<key, value>分成N分,分别送到下一环节。
5.化简(Reduce):将中间结果合并,得到最终结果
6.输出(output):负责输入最终结果。
其中第3、4步又成洗牌(shuffle)过程。
从前面HelloWorld示例中,我们看到,我们只去个性化了Map和Reduce函数,那其他函数呢,是否可以个性化?答案当然是肯定的。下面我们就对每个环节的个性化进行介绍。
自定义输入格式
输入格式(InputFormat)用于描述整个MapReduce作业的数据输入规范。先对输入的文件进行格式规范检查,如输入路径,后缀等检查;然后对数据文件进行输入分块(split);再对数据块逐一读出;最后转换成Map所需要的<key, value>健值对。
系统中提供丰富的预置输入格式。最常用的以下两种:
TextInputFormat:系统默认的数据输入格式。将文件分块,并逐行读入,每一行记录行成一对<key, value>。其中,key值为当前行在整个文件中的偏移量,value值为这一行的文本内容。
KeyValueTextInputFormat:这是另一个常用的数据输入格式,读入的文本文件内容要求是以<key, value>形式。读出的结果也就直接形成<key, value>送入map函数中。
如果选择输入格式呢?那就只要在job函数中调用
- job.setInputFormatClass(TextInputFormat.class);
在Hello中我们没有设定,系统默认选择了TextInputFormat。
一般情况够用了,但某些情况下,还是无法满足用户的需求,所以还是需要个性化。个性化则按下面的方式进行:
如果数据我们是来源于文件,则可以继承FileInputFormat:
- public class MyInputFormat extends FileInputFormat<Text,Text> {
- @Override
- public RecordReader<Text, Text> createRecordReader(InputSplit split,
- TaskAttemptContext context) throws IOException, InterruptedException {
- // TODO Auto-generated method stub
- return null;
- }
- }
如果数据我们是来源于非文件,如关系数据,则继承
- public class MyInputFormat extends InputFormat<Text,Text> {
- @Override
- public RecordReader<Text, Text> createRecordReader(InputSplit arg0,
- TaskAttemptContext arg1) throws IOException, InterruptedException {
- // TODO Auto-generated method stub
- return null;
- }
- @Override
- public List<InputSplit> getSplits(JobContext arg0) throws IOException,
- InterruptedException {
- // TODO Auto-generated method stub
- return null;
- }
- }
这里比较清晰了,下面个函数为拆分成split,上面个函数跟据split输出成Key,value。
自定义map处理
这个好理解,我们的HelloWorld程序中就自定义了map处理函数。然后在job中指定了我们的处理类:
- job.setMapperClass(TokenizerMapper.class);
能不能没有map呢? 可以的,如果没有map,也就是这与上面的这个setMapperClass,则系统自动指定一个null,这时处理是将输入的<key,value>值,不作任何修改,直接送到下一环节中。
个性化代码如下:
- public static class TokenizerMapper
- extends Mapper<Object, Text, Text, IntWritable>{
- public void map(Object key, Text value, Context context
- ) throws IOException, InterruptedException {
- context.write(key, value);
- }
- }
自定义合并Combiner
自定义合并Combiner类,主要目的是减少Map阶段输出中间结果的数据量,降低数据的网络传输开销。
Combine过程,实际跟Reduce过程相似,只是执行不同,Reduce是在Reducer环节运行,而Combine是紧跟着Map之后,在同一台机器上预先将结时进行一轮合并,以减少送到Reducer的数据量。所以在HelloWorld时,可以看到,Combiner和Reducer用的是同一个类:
- job.setCombinerClass(IntSumReducer.class);
- job.setReducerClass(IntSumReducer.class);
如何个性化呢,这个跟Reducer差不多了:
- public static class MyCombiner
- extends Reducer<Text,IntWritable,Text,IntWritable> {
- public void reduce(Text key, Iterable<IntWritable> values,
- Context context
- ) throws IOException, InterruptedException {
- context.write(key, new IntWritable(1));
- }
- }
自定义分区Partitioner
在MapReduce程序中,Partitioner决定着Map节点的输出将被分区到哪个Reduce节点。而默认的Partitioner是HashPartitioner,它根据每条数据记录的主健值进行Hash操作,获得一个非负整数的Hash码,然后用当前作业的Reduce节点数取模运算,有N个结点的话,就会平均分配置到N个节点上,一个隔一个依次。大多情况下这个平均分配是够用了,但也会有一些特殊情况,比如某个文件的,不能被拆开到两个结点中,这样就需要个性化了。
个性化方式如下:
- public static class MyPartitioner
- extends HashPartitioner<K,V> {
- public void getPartition(K key, V value,int numReduceTasks) {
- super.getPartition(key,value,numReduceTasks);
- }
- }
方式其实就是在执行之前可以改变一下key,来欺骗这个hash表。
自定义化简(Reducer)
这一块是将Map送来的结果进行化简处理,并形成最终的输出值。与前面map一样,在HelloWorld中我们就见到过了。通过下面代码可以设置其值:
- job.setReducerClass(IntSumReducer.class);
同样,也可以这样类可以不设置,如果不设置的话,就是把前面送来的值,直接送向输出格式器中。
如果要个性化,则如下:
- public static class IntSumReducer
- extends Reducer<Text,IntWritable,Text,IntWritable> {
- public void reduce(Text key, Iterable<IntWritable> values,
- Context context
- ) throws IOException, InterruptedException {
- context.write(key, result);
- }
- }
自定义输出格式
数据输出格式(OutPutFormat)用于描述MapReduce作业的数据输出规范。Hadoop提供了丰富的内置数据输出格式。最常的数据输出格式是TextOutputFormat,也是系统默认的数据输出格式,将结果以"key+\t+value"的形式逐行输出到文本文件中。还有其它的,如:DBOutputFormat,FileOutputFormat,FilterOutputFormat,IndexUpdataOutputFormat,LazyOutputFormat,MapFileOutputFormat,等等。
如果要个性化,则按下面方式进行:
- public class MyOutputFormat extends OutputFormat<Text,Text> {
- @Override
- public void checkOutputSpecs(JobContext arg0) throws IOException,
- InterruptedException {
- // TODO Auto-generated method stub
- }
- @Override
- public OutputCommitter getOutputCommitter(TaskAttemptContext arg0)
- throws IOException, InterruptedException {
- // TODO Auto-generated method stub
- return null;
- }
- @Override
- public RecordWriter<Text, Text> getRecordWriter(TaskAttemptContext arg0)
- throws IOException, InterruptedException {
- // TODO Auto-generated method stub
- return null;
- }
- }
复合健——用户自定义类型。
从前面的整个过程中可以看到,都是采用key-value的方式进行传入传出,而这些类型大多是单一的字符串,和整型。如果我的key中需要包含多个信息怎么办?用字符串直接拼接么? 太不方便了,最好能够自己定义一个类,作为这个key,这样就方便了。
如果定义一个类作为key 或value的类型? 有什么要求?就是这个类型必须要继承WritableComparable<T>这个类,所以如果要自定义一个类型则可以这么实现:
- public class MyType implements WritableComparable<MyType> {
- private float x,y;
- public float GetX(){return x;}
- public float GetY(){return y;}
- @Override
- public void readFields(DataInput in) throws IOException {
- x = in.readFloat();
- y = in.readFloat();
- }
- @Override
- public void write(DataOutput out) throws IOException {
- out.writeFloat(x);
- out.writeFloat(y);
- }
- @Override
- public int compareTo(MyType arg0) {
- //输入:-1(小于) 0(等于) 1(大于)
- return 0;
- }
- }
这个示例中,我们添加了两个float变量:x,y 。 这个信息能过int 和out按次序进行输入输出。最后,再实现一个比较函数即可。
Job任务的创建
- Job job = new Job(conf, "word count");
- job.setJarByClass(WordCount.class);
- job.setInputFormatClass(MyInputFormat.class);
- job.setMapperClass(TokenizerMapper.class);
- job.setCombinerClass(IntSumReducer.class);
- job.setPartitionerClass(MyPartitioner.class);
- job.setReducerClass(IntSumReducer.class);
- job.setOutputFormatClass(TextOutputFormat.class);
- job.setOutputKeyClass(Text.class);
- job.setOutputValueClass(IntWritable.class);
- FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
- FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));
任务创建比较容易,其实就是new一个实例,然后把上面描述的过程类设置好,然后加上第2行中,jar包的主类,第10、11行的输入输出路径。这样就完事了。
Job任务的执行
单个任务的执行,没有什么问题,可以用这个:
- job.waitForCompletion(true);
但多个任务呢? 多个任务的话,就会形成其组织方式,有串行,有并行,有无关,有组合的,如下图:

图中,Job2和Job3将会等Job1执行完了再执行,且可以同时开始,而Job4必须等Job2和Job3同时结束后才结束。
这个组合,就可以采用这样的代码来实现:
- Configuration conf = new Configuration();
- Job job1 = new Job(conf, "job1");
- //.. config Job1
- Job job2 = new Job(conf, "job2");
- //.. config Job2
- Job job3 = new Job(conf, "job3");
- //.. config Job3
- Job job4 = new Job(conf, "job4");
- //.. config Job4
- //添加依赖关系
- job2.addDependingJob(job1);
- job3.addDependingJob(job1);
- job4.addDependingJob(job2);
- job4.addDependingJob(job3);
- JobControl jc = new JobControl("jbo name");
- jc.addJob(job1);
- jc.addJob(job2);
- jc.addJob(job3);
- jc.addJob(job4);
- jc.run();
总述
现在回头看看,其实整个hadoop编程,也就是这几块内容了,要实现某个功能,我们就往上面这些步骤上套,然后联起来执行,达到我们的目的。
Hadoop学习笔记(7) ——高级编程的更多相关文章
- Hadoop学习笔记(6) ——重新认识Hadoop
Hadoop学习笔记(6) ——重新认识Hadoop 之前,我们把hadoop从下载包部署到编写了helloworld,看到了结果.现是得开始稍微更深入地了解hadoop了. Hadoop包含了两大功 ...
- Hadoop学习笔记(5) ——编写HelloWorld(2)
Hadoop学习笔记(5) ——编写HelloWorld(2) 前面我们写了一个Hadoop程序,并让它跑起来了.但想想不对啊,Hadoop不是有两块功能么,DFS和MapReduce.没错,上一节我 ...
- Hadoop学习笔记(1) ——菜鸟入门
Hadoop学习笔记(1) ——菜鸟入门 Hadoop是什么?先问一下百度吧: [百度百科]一个分布式系统基础架构,由Apache基金会所开发.用户可以在不了解分布式底层细节的情况下,开发分布式程序. ...
- Hadoop学习笔记—5.自定义类型处理手机上网日志
转载自http://www.cnblogs.com/edisonchou/p/4288737.html Hadoop学习笔记—5.自定义类型处理手机上网日志 一.测试数据:手机上网日志 1.1 关于这 ...
- Hadoop学习笔记(1)(转)
Hadoop学习笔记(1) ——菜鸟入门 Hadoop是什么?先问一下百度吧: [百度百科]一个分布式系统基础架构,由Apache基金会所开发.用户可以在不了解分布式底层细节的情况下,开发分布式程序. ...
- Hadoop学习笔记(9) ——源码初窥
Hadoop学习笔记(9) ——源码初窥 之前我们把Hadoop算是入了门,下载的源码,写了HelloWorld,简要分析了其编程要点,然后也编了个较复杂的示例.接下来其实就有两条路可走了,一条是继续 ...
- matlab学习笔记9 高级绘图命令_1 图形对象_根对象,轴对象,用户控制对象,用户菜单对象
一起来学matlab-matlab学习笔记9 高级绘图命令_1 图形对象_根对象,轴对象,用户控制对象,用户菜单对象 觉得有用的话,欢迎一起讨论相互学习~Follow Me 参考书籍 <matl ...
- [转帖]hadoop学习笔记:hadoop文件系统浅析
hadoop学习笔记:hadoop文件系统浅析 https://www.cnblogs.com/sharpxiajun/archive/2013/06/15/3137765.html 1.什么是分布式 ...
- Hadoop学习笔记—22.Hadoop2.x环境搭建与配置
自从2015年花了2个多月时间把Hadoop1.x的学习教程学习了一遍,对Hadoop这个神奇的小象有了一个初步的了解,还对每次学习的内容进行了总结,也形成了我的一个博文系列<Hadoop学习笔 ...
随机推荐
- hibernate自动生成映射文件
映射文件是O/R Mapping的关键,相当于控制中心.当数据库表较多时,手动配置该映射文件非常耗时.为了快速开发程序,使开发人员的注意力集中到业务逻辑上来,Hibernate官方提供的MiddleG ...
- find-right-interval
https://leetcode.com/problems/find-right-interval/ Java里面TreeMap或者TreeSet有类似C++的lower_bound或者upper_b ...
- Qt之模型/视图(自定义进度条)
简述 在之前的章节中分享过关于QHeaderView表头排序.添加复选框等内容,相信大家模型/视图.自定义风格有了一定的了解,下面我们来分享一个更常用的内容-自定义进度条. 实现方式: 从QAbstr ...
- UVa 12206 (字符串哈希) Stammering Aliens
体验了一把字符串Hash的做法,感觉Hash这种人品算法好神奇. 也许这道题的正解是后缀数组,但Hash做法的优势就是编码复杂度大大降低. #include <cstdio> #inclu ...
- HDU 2125 Local area network
简单DP,N×M的网格其中有一条边坏掉了,问从起点到终点的放法数 有两种方法,一种是DP很好理解 //#define LOCAL #include <cstdio> #include &l ...
- 事件对象event和计时器
事件对象:event 属性: srcElement事件源对象 keyCode 键盘按键Ascii码 window方法: 定时器: 1)setTimeout();//n毫秒后执行一次 2)setInte ...
- WM8962 HPOUT 信号强度 时间周期
/*************************************************************************** * WM8962 HPOUT 信号强度 时间周 ...
- Linux下Web服务器环境搭建LNMP一键安装包[20130911更新]
2012年08月14日 ⁄ LNMP ⁄ 评论数 73 ⁄ 被围观 25,200次+ 最新版本:lnmp-2.4 安装说明:请保证服务器能够正常上网.服务器系统时间准确.yum命令可以正常使用! 1. ...
- selinux --chcon命令
chcon命令:修改对象(文件)的安全上下文.比如:用户:角色:类型:安全级别. 命令格式: Chcon [OPTIONS…] CONTEXT FILES….. Chcon [OPTIONS…] –r ...
- Linux VPS 基本命令
我们Linux VPS用命令才能管理他,我们来罗列一些基本和简单的Linux的命令 1.lsls / 查看根目录ls -a / 查看根目录下所要文件,包括隐藏文件ls -l / 详细列出目录下文件的权 ...