OutputFormat概述

OutputFormat主要是用来指定MR程序的最终的输出数据格式 。

默认使用的是TextOutputFormat,默认是将数据一行写一条数据,并且把数据放到指定的输出目录下,以 part-r-xxxxx数字开头。并且默认情况下有几个ReduceTask就有几个结果文件产生

自定义OutputFormat

自定义OutputFormat的详细流程:

  1. 定义MyOutputFormat继承FileOutputFormat<T>,泛型传入的是Reducer的输出类型
  2. 重写里面的getRecordWriter()方法,这个方法需要返回一个RecordWriter对象。

    这个方法里面定义了最终文件输出到什么地方

  3. 创建一个RecordWriter对象,继承RecordWriter<T>,重写里面的两个方法:write()、close()。其中write()方法中需要定义想要将文件输出到什么地方去,在这个方法中定义输出数据地址和输出数据格式
  4. 在Driver中通过job.setOutputFormatClass()指定我们使用的是哪个OutputFormat实现类

注意】如果设置了分区,并且指定了ReduceTask的数量,那么根据以前所学的有多少个ReduceTask就会生成多少个结果文件,是因为默认使用的是TextOutputFormat实现类,这个实现类就是几个ReduceTask就有几个结果文件。但是如果我们自定义了OutputFormat,那么结果文件只有我们指明的地址,没有其他。

案例实操

案例一:存储数据到MySQL中

需求:将手机流量数据根据总流向升序输出到MySQL数据库中

代码:

  1. FlowOutputInformat.java

    public class FlowOutputFormat extends FileOutputFormat<FlowBean, NullWritable> {
    @Override
    public RecordWriter<FlowBean, NullWritable> getRecordWriter(TaskAttemptContext taskAttemptContext) throws IOException, InterruptedException {
    return new MyRecordWriter();
    }
    }
  2. MyRecordWriter.java

    public class MyRecordWriter extends RecordWriter<FlowBean, NullWritable> {
    /**
    * 需要在这个方法中定义输出格式、输出数据地址
    * @param flowBean:Reduce阶段输出数据Key值
    * @param nullWritable:Reduce阶段输出value值
    */
    @SneakyThrows
    @Override
    public void write(FlowBean flowBean, NullWritable nullWritable) throws IOException, InterruptedException {
    Connection connection = DriverManager.getConnection("jdbc:mysql://localhost:3306/sx_bigdata?serverTimezone=UTC", "root", "root");
    PreparedStatement preparedStatement = connection.prepareStatement("insert into phone_flow values (?, ?, ?, ?)");
    preparedStatement.setString(1, flowBean.getPhone());
    preparedStatement.setInt(2, flowBean.getUpFlow());
    preparedStatement.setInt(3, flowBean.getDownFlow());
    preparedStatement.setInt(4, flowBean.getSumFlow());
    int i = preparedStatement.executeUpdate();
    if (i > 0) {
    System.out.println("添加成功!");
    } else {
    System.out.println("添加失败!");
    }
    connection.close();
    preparedStatement.close();
    } @Override
    public void close(TaskAttemptContext taskAttemptContext) throws IOException, InterruptedException { }
  3. FlowDriver.java

    job.setOutputFormatClass(FlowOutputFormat.class);

案例二:存储数据到HDFS本地指定文件夹中

需求:将单词计数案例结果输出到本地,其中首字母为大写字母存储在/upper.txt目录下,首字母为小写字母存储在/lower.txt目录下

代码:

  1. MyOutputFormat.java

    public class MyOutputFormat extends FileOutputFormat<Text, LongWritable> {
    @SneakyThrows
    @Override
    public RecordWriter getRecordWriter(TaskAttemptContext taskAttemptContext) throws IOException, InterruptedException {
    return new MyRecordWriter(taskAttemptContext);
    }
    }
  2. MyRecordWriter.java

    public class MyRecordWriter extends RecordWriter<Text, LongWritable> {
    FSDataOutputStream fsDataOutputStream1;
    FSDataOutputStream fsDataOutputStream2;
    public MyRecordWriter(TaskAttemptContext taskAttemptContext) throws Exception {
    Configuration configuration = taskAttemptContext.getConfiguration();
    FileSystem fs = FileSystem.get(new URI("hdfs://192.168.218.55:9000"), configuration, "root");
    Path out1 = new Path("/test/school/upper.txt");
    Path out2 = new Path("/test/school/lower.txt");
    if (fs.exists(out1)) {
    fs.delete(out1, true);
    }
    if (fs.exists(out2)) {
    fs.delete(out2, true);
    }
    fsDataOutputStream1 = fs.create(out1);
    fsDataOutputStream2 = fs.create(out2);
    } @Override
    public void write(Text text, LongWritable longWritable) throws IOException, InterruptedException {
    char firstWord = text.toString().charAt(0);
    String line = text + "\t" + longWritable.get() + "\r\n";
    if (Character.isUpperCase(firstWord)) {
    fsDataOutputStream1.write(line.getBytes());
    } else {
    fsDataOutputStream2.write(line.getBytes());
    }
    } @Override
    public void close(TaskAttemptContext taskAttemptContext) throws IOException, InterruptedException {
    if (fsDataOutputStream1 != null) {
    fsDataOutputStream1.close();
    }
    if (fsDataOutputStream2 != null) {
    fsDataOutputStream2.close();
    }
    }
    }
  3. FlowDriver.java

    job.setOutputFormatClass(MyOutputFormat.class);

MapReduce框架原理-OutputFormat工作原理的更多相关文章

  1. MapReduce作业的工作原理

    在Hadoop中,我们可以通过Job对象的submit()方法来运行MapReduce作业,也可以调用waitForCompletion()用于提交以前没有提交过的作业,并等待它的完成.其中,subm ...

  2. Hadoop(20)-MapReduce框架原理-OutputFormat

    1.outputFormat接口实现类 2.自定义outputFormat 步骤: 1). 定义一个类继承FileOutputFormat 2). 定义一个类继承RecordWrite,重写write ...

  3. MapReduce框架原理-MapTask工作机制

    MapReduce框架原理-MapTask工作机制 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. maptask的并行度决定map阶段的任务处理并发度,进而影响到整个job的处理速 ...

  4. MapReduce的工作原理

    MapReduce简介 MapReduce是一种并行可扩展计算模型,并且有较好的容错性,主要解决海量离线数据的批处理.实现下面目标 ★ 易于编程 ★ 良好的扩展性 ★ 高容错性   MapReduce ...

  5. MapReduce 1工作原理图文详解

    MapReduce工作原理图文详解 一 MapReduce程序执行流程 程序执行流程图如下: 流程分析:1.在客户端启动一个作业.2.向JobTracker请求一个Job ID.3.将运行作业所需要的 ...

  6. MapReduce工作原理详解

    文章概览: 1.MapReduce简介 2.MapReduce有哪些角色?各自的作用是什么? 3.MapReduce程序执行流程 4.MapReduce工作原理 5.MapReduce中Shuffle ...

  7. MapReduce工作原理图文详解

    目录:1.MapReduce作业运行流程2.Map.Reduce任务中Shuffle和排序的过程 1.MapReduce作业运行流程 流程示意图: 流程分析: 1.在客户端启动一个作业. 2.向Job ...

  8. MapReduce工作原理讲解

    第一部分:MapReduce工作原理 MapReduce 角色•Client :作业提交发起者.•JobTracker: 初始化作业,分配作业,与TaskTracker通信,协调整个作业.•TaskT ...

  9. MapReduce工作原理

    第一部分:MapReduce工作原理   MapReduce 角色•Client :作业提交发起者.•JobTracker: 初始化作业,分配作业,与TaskTracker通信,协调整个作业.•Tas ...

随机推荐

  1. rsync 基本使用

    基本参数 # rsync -P test.tar.gz ./ test.tar.gz 395,706,368 48% 377.34MB/s 0:00:01 Or # rsync -avPh test. ...

  2. nohup启动 jar 不输出日志

    简单暴力:nohup java -jar xxx.jar >/dev/null 2>&1 &

  3. 什么是forward和include?

    请求包含的例子 第一个Servlet (DispatcherServlet) @Override protected void doGet(HttpServletRequest req, HttpSe ...

  4. 使用Retrofit上传图片

    Retrofit使用协程发送请求参考文章 :https://www.cnblogs.com/sw-code/p/14451921.html 导入依赖 app的build文件中加入: implement ...

  5. AcWing 1128. 信使

    战争时期,前线有 n个哨所,每个哨所可能会与其他若干个哨所之间有通信联系. 信使负责在哨所之间传递信息,当然,这是要花费一定时间的(以天为单位). 指挥部设在第一个哨所.当指挥部下达一个命令后,指挥部 ...

  6. Docker:docker搭建redis6.0.8集群

    下载redis镜像 #拉取镜像 docker pull redis:6.0.8 查看版本 #查看版本 docker inspect redis 生成redis.conf配置文件 #在 /home/re ...

  7. Docker:docker部署Sqlite3数据库

    1.依赖Ubuntu系统安装sqlite3生成镜像 dockerfile文件 FROM ubuntu:trusty RUN sudo apt-get -y update RUN sudo apt-ge ...

  8. linux学习之路第八天(linux文件权限详解)

    建议和我上一篇博客一起通读,效果更加 1.权限的基本介绍 通过一张图片解决疑惑(重点) rwx权限详解 rwx作用到文件 1)[r]代表可读(read) :可以读取,查看 2)[w]代表可写(writ ...

  9. ESP32-http server笔记

    基于ESP-IDF4.1 #include <esp_wifi.h> #include <esp_event.h> #include <esp_log.h> #in ...

  10. 求数组的子数组之和的最大值III(循环数组)

    新的要求:一维数组改成循环数组,只是涉及简单算法,只是拿了小数做测试 想法:从文件读取数组,然后新建数组,将文件读取的数组在新数组中做一下连接,成为二倍长度的数组,然后再遍历,将每次遍历的子数组的和存 ...