MapReduce编程实例:

MapReduce编程实例(一),详细介绍在集成环境中运行第一个MapReduce程序 WordCount及代码分析

MapReduce编程实例(二),计算学生平均成绩

MapReduce编程实例(三),数据去重

MapReduce编程实例(四),排序

MapReduce编程实例(五),MapReduce实现单表关联

 

排序,比较简单,上代码,代码中有注释,欢迎交流。

总体是利用MapReduce本身对Key进行排序的特性和按key值有序的分配到不同的partition。Mapreduce默认会对每个reduce按text类型key按字母顺序排序,对intwritable类型按大小进行排序。

    1. package com.t.hadoop;
    2. import java.io.IOException;
    3. import org.apache.hadoop.conf.Configuration;
    4. import org.apache.hadoop.fs.Path;
    5. import org.apache.hadoop.io.IntWritable;
    6. import org.apache.hadoop.io.Text;
    7. import org.apache.hadoop.mapreduce.Job;
    8. import org.apache.hadoop.mapreduce.Mapper;
    9. import org.apache.hadoop.mapreduce.Partitioner;
    10. import org.apache.hadoop.mapreduce.Reducer;
    11. import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    12. import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    13. import org.apache.hadoop.util.GenericOptionsParser;
    14. /**
    15. * 排序
    16. * 利用MapReduce默认的对Key进行排序
    17. * 继承Partitioner类,重写getPartition使Mapper结果整体有序分到相应的Partition,输入到Reduce分别排序。
    18. * 利用全局变量统计位置
    19. * @author daT dev.tao@gmail.com
    20. *
    21. */
    22. public class Sort {
    23. public static class SortMapper extends Mapper<Object, Text, IntWritable, IntWritable>{
    24. //直接输出key,value,key为需要排序的值,value任意
    25. @Override
    26. protected void map(Object key, Text value,
    27. Context context)throws IOException, InterruptedException {
    28. System.out.println("Key: "+key+"  "+"Value: "+value);
    29. context.write(new IntWritable(Integer.valueOf(value.toString())),new IntWritable(1));
    30. }
    31. }
    32. public static class SortReducer extends Reducer<IntWritable, IntWritable, IntWritable, IntWritable>{
    33. public static IntWritable lineNum = new IntWritable(1);//记录该数据的位置
    34. //查询value的个数,有多少个就输出多少个Key值。
    35. @Override
    36. protected void reduce(IntWritable key, Iterable<IntWritable> value,
    37. Context context) throws IOException, InterruptedException {
    38. System.out.println("lineNum: "+lineNum);
    39. for(IntWritable i:value){
    40. context.write(lineNum, key);
    41. }
    42. lineNum = new IntWritable(lineNum.get()+1);
    43. }
    44. }
    45. public static class SortPartitioner extends Partitioner<IntWritable, IntWritable>{
    46. //根据key对数据进行分派
    47. @Override
    48. public int getPartition(IntWritable key, IntWritable value, int partitionNum) {
    49. System.out.println("partitionNum: "+partitionNum);
    50. int maxnum = 23492;//输入的最大值,自己定义的。mapreduce 自带的有采样算法和partition的实现可以用,此例没有用。
    51. int bound = maxnum/partitionNum;
    52. int keyNum = key.get();
    53. for(int i=0;i<partitionNum;i++){
    54. if(keyNum>bound*i&&keyNum<=bound*(i+1)){
    55. return i;
    56. }
    57. }
    58. return -1;
    59. }
    60. }
    61. public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException{
    62. Configuration conf = new Configuration();
    63. String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();
    64. if(otherArgs.length<2){
    65. System.out.println("input parameters errors");
    66. System.exit(2);
    67. }
    68. Job job= new Job(conf);
    69. job.setJarByClass(Sort.class);
    70. job.setMapperClass(SortMapper.class);
    71. job.setPartitionerClass(SortPartitioner.class);//此例不需要combiner,需要设置Partitioner
    72. job.setReducerClass(SortReducer.class);
    73. job.setOutputKeyClass(IntWritable.class);
    74. job.setOutputValueClass(IntWritable.class);
    75. FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
    76. FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));
    77. System.exit(job.waitForCompletion(true)?0:1);
    78. }
    79. }

MapReduce编程实例4的更多相关文章

  1. MapReduce编程实例6

    前提准备: 1.hadoop安装运行正常.Hadoop安装配置请参考:Ubuntu下 Hadoop 1.2.1 配置安装 2.集成开发环境正常.集成开发环境配置请参考 :Ubuntu 搭建Hadoop ...

  2. MapReduce编程实例5

    前提准备: 1.hadoop安装运行正常.Hadoop安装配置请参考:Ubuntu下 Hadoop 1.2.1 配置安装 2.集成开发环境正常.集成开发环境配置请参考 :Ubuntu 搭建Hadoop ...

  3. MapReduce编程实例3

    MapReduce编程实例: MapReduce编程实例(一),详细介绍在集成环境中运行第一个MapReduce程序 WordCount及代码分析 MapReduce编程实例(二),计算学生平均成绩 ...

  4. MapReduce编程实例2

    MapReduce编程实例: MapReduce编程实例(一),详细介绍在集成环境中运行第一个MapReduce程序 WordCount及代码分析 MapReduce编程实例(二),计算学生平均成绩 ...

  5. 三、MapReduce编程实例

    前文 一.CentOS7 hadoop3.3.1安装(单机分布式.伪分布式.分布式 二.JAVA API实现HDFS MapReduce编程实例 @ 目录 前文 MapReduce编程实例 前言 注意 ...

  6. hadoop2.2编程:使用MapReduce编程实例(转)

    原文链接:http://www.cnblogs.com/xia520pi/archive/2012/06/04/2534533.html 从网上搜到的一篇hadoop的编程实例,对于初学者真是帮助太大 ...

  7. MapReduce编程实例

    MapReduce常见编程实例集锦. WordCount单词统计 数据去重 倒排索引 1. WordCount单词统计 (1) 输入输出 输入数据: file1.csv内容 hellod world ...

  8. hadoop之mapreduce编程实例(系统日志初步清洗过滤处理)

    刚刚开始接触hadoop的时候,总觉得必须要先安装hadoop集群才能开始学习MR编程,其实并不用这样,当然如果你有条件有机器那最好是自己安装配置一个hadoop集群,这样你会更容易理解其工作原理.我 ...

  9. Hadoop--mapreduce编程实例1

    前提准备: 1.hadoop安装运行正常.Hadoop安装配置请参考:Ubuntu下 Hadoop 1.2.1 配置安装 2.集成开发环境正常.集成开发环境配置请参考 :Ubuntu 搭建Hadoop ...

随机推荐

  1. iOS:KVC和KVO

    来源:  对月流 链接:http://www.jianshu.com/p/f1393d10109d 写在前面: 关于KVC和KVO各种博客多了去了,重新整理下,就当是温习一下吧,也还算是个新手,不对的 ...

  2. jQuery选择器的灵活用法

    // 摘自: http://hi.baidu.com/274084093/item/47a4ce696e89e534ad3e836b jQuery中选择器很强大,可以根据元素名称.ID.class等多 ...

  3. scala 内部类

    scala内部类不同于java内部类, java类中内部类从属于外部类,而scala的内部类从属于外部类对象 /** * 第一种方式 * 在内部类通过 外部类.this.成员名称 访问外部类成员 */ ...

  4. Android SDK Manager 更新

    Android SDK Manager 更新 解决国内访问Google服务器的困难: 1.启动 Android SDK Manager : 2.打开主界面,依次选择「Tools」.「Options…」 ...

  5. [ES6] 10. Array Comprehensions

    ES6 decided that Array Comprehensions will not included in this version, ES7 will include this. Ther ...

  6. ORA-12519, TNS:no appropriate service handler found(数据库上当前的连接数目已经超过最大值)

    报错: ORA-12519, TNS:no appropriate service handler foundThe Connection descriptor used by the client ...

  7. 两种方法连接MySql数据库

    .用MySQLDriverCS连接MySQL数据库 先下载和安装MySQLDriverCS,在安装文件夹下面找到MySQLDriver.dll,然后将MySQLDriver.dll添加引用到项目中. ...

  8. ES6 Reflect

    1.Reflect概述 ES6 为了操作对象而提供的新 API 2.Reflect设计目的 (1)将Object对象的一些明显属于语言内部的方法(比如Object.defineProperty),放到 ...

  9. TCP/IP协议族-----21、文件传送:FTP和TFTP

    watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvaGVrZXdhbmd6aQ==/font/5a6L5L2T/fontsize/400/fill/I0JBQk ...

  10. jBoss无法通过IP地址访问,只能用localhost\127.0.0.1访问

    http://feng88724.iteye.com/blog/263211 JBOSS版本:4.2.2GA 症状:服务器无法通过IP地址去访问,只能用127.0.0.1或者localhost来访问. ...