shuffle 简介

shuffle 描述了数据从 map task 输出到 reduce task 输入的过程,shuffle 是连接 map 和 reduce 的桥梁;

shuffle 性能的高低直接影响了整个程序的性能和吞吐量,因为在 分布式 情况下,reduce task 需要跨节点去拉取其他节点上 map task 的结果,这需要消耗网络资源、内存 IO 和磁盘 IO;

shuffle 可分为两部分:map 阶段的数据准备和 reduce 阶段的数据拷贝处理,一般 map 端的 shuffle 称之为 Shuffle Write,reduce 端的 shuffle 称之为 Shuffle Read

Hadoop MapReduce Shuffle

hadoop 中的 shuffle 过程应该是很多 shuffle 的基础,互相参考,所以请先了解 hadoop 的 shuffle,参考 我的博客 hadoop-mapreduce 详解

Spark Shuffle

Stage

首先我们了解一个概念,Stage,在讲 Spark 原理时,提了一下

1. 一个 job 会被划分成 多个 Stage,送给 task 调度器;

2. Stage 中是高效快速的 Pipeline 的计算模式;

3. 宽依赖之间会划分 Stage;

4. 不同的 Stage 之间会有 Shuffle

看图来理解一下

Stage 1 和 Stage 3 之间存在 shuffle;Stage 2 和 Stage 3 之间也存在 shuffle

Shuffle 发展

在 spark 中,shuffle 的计算、执行和处理 由 ShuffleManager 负责;

ShuffleManager 随着 spark 的发展有两种方式,分别为 HashShuffleManager 和 SortShuffleManager,因此 spark 的 shuffle 有 Hash 和 Sort 两种;

在 spark1.2,使用 HashShuffleManager,由于 Hash 存在很多问题,spark1.2 之后,改为 SortShuffleManager

HashShuffleManager

由于已经被弃用,简单介绍下

HashShuffleManager 的运行机制分为两种,一种是 普通运行机制,一种是 合并运行机制,合并运行机制是对普通机制的优化;

1) 普通运行机制

上图的表达不是很准确,我们可以这么理解

一个 job 启动了 两个 Executor,每个 Executor 是单核,所以一次只能运行一个 task,上图中一个 Executor 有两个 task,我们可以理解为 一个 task 执行完毕后,执行另一个 task;

1. 上图有 3 个 reduce task,故 map 阶段需要输出 3 个 parttition;

2. task 对数据进行 partition 后,把不同分区存入 内存 buffer;

3. buffer 填满后,spill 到磁盘,每个 task 会新建文件;

4. 最后生成了 3(个区)x2(Executor 数)x2(每个Executor任务数) = 12 个小文件;

5. 每个 reduce (3 个分区,需要 3 个 reduce)从不同节点拉取自己需要的 文件;

存在的问题

1. 生成了很多小文件,map 端 write 和 reduce 端 read 会消耗大量的 IO ;

2. 过多的小文件,在拉取过程中会消耗大量的网络资源,并且很耗时;

3. 由于内存中需要保存海量文件操作句柄和临时信息,如果数据处理的规模比较庞大的话,内存不可承受,会出现 OOM 等问题

2) 合并运行机制

针对 普通运行机会,它的改进在于,在分区之后,把每个 task 的分区结果追加到一个文件中,代替了每个task新建文件,这样一定程度上减少了 map 后的 文件数量;

但问题依然很大

SortShuffleManager

SortShuffleManager 的运行机制也分两种:一种是 普通运行机制,另一种是 bypass 运行机制

1)普通运行机制

1. 数据先写入一个内存数据结构中

  // 根据不同的 shuffle 算子,选择不同的数据结构,

  如果是 reduceByKey 等聚合算子,会选择 map 数据结构,先通过 map 进行聚合,在写入内存;

  // 如果是 join 等普通算子,选用 array 数据结构,直接写入内存

2. 每写入一条数据,会计算该数据结构的大小,如果达到临界值,就溢写到磁盘,然后清空该数据结构

3. 在溢写时,首先根据 key 进行排序

4. 然后分批写入磁盘,也就是有个 buffer,每次 batch 1w 条数据,当 buffer 区满了,再一次性写入磁盘,这样减少 IO,提升性能

5. merge:一个 task 将所有数据写入内存数据结构的过程中,会发生很多次溢写操作,产生多个 临时文件;最后需要将这些文件全部合并为一个文件;

  // 分别读取每个临时文件,依次写入一个文件;

  // 一个 task 只对应一个 文件,ruduce 端只需拉取一个文件即可;

  // 由于一个 task 溢写的那个总文件实际上对应了后面多个 reduce,所以需要有一个 索引文件,指定在文件中每个 reduce 对应的数据的 offset,start and end

2)bypass 运行机制

这种机制只在某种条件下执行,触发条件为

1. shuffle map task 数量小于 spark.shuffle.sort.bypassMergeThreshold 参数的值

2. 非聚合类算子

1. 这种机制会给每个 reduce 产生一个临时文件,其实跟 普通机制的 HashShuffleManager  一样,根据 key 的 hash 值写入不同的文件,当然写入时 还是 buffer,然后 buffer 满了才一次性写入

  // 此时产生了大量的小文件

2. 将所有文件进行合并,也会产生一个 索引文件,记录每个 reduce 端的所需数据的 offset

VS 普通机制的 HashShuffleManager:最终合并为一个大文件和一个索引文件

VS 普通机制的 SortShuffleManager:1. shuffle write 机制不同;2. 没有排序

本文只是做了简单介绍,其实还有很多更深的内容没有涉及,后续有时间再说

参考资料:

https://www.cnblogs.com/itboys/p/9226479.html#top

spark教程(13)-shuffle介绍的更多相关文章

  1. Spark教程——(11)Spark程序local模式执行、cluster模式执行以及Oozie/Hue执行的设置方式

    本地执行Spark SQL程序: package com.fc //import common.util.{phoenixConnectMode, timeUtil} import org.apach ...

  2. node-webkit教程(13)gpu支持信息查看

    node-webkit教程(13)gpu支持信息查看 文/玄魂 目录 node-webkit教程(13)gpu支持信息查看 前言 13.1操作步骤 (一)打开node-webkit,输入chrome: ...

  3. matlab中文论坛视频谷普教程MATLAB压缩包介绍

    matlab中文论坛视频谷普教程MATLAB压缩包介绍 我也正在学习这个软件 ,看到这个教程就在这里分享了,希望大家喜欢!Matlab 初学者视频教学1. Matlab视频:Matlab中文论坛为新手 ...

  4. spark性能调优(二) 彻底解密spark的Hash Shuffle

    装载:http://www.cnblogs.com/jcchoiling/p/6431969.html 引言 Spark HashShuffle 是它以前的版本,现在1.6x 版本默应是 Sort-B ...

  5. [译]Vulkan教程(13)图形管道基础之Shader模块

    [译]Vulkan教程(13)图形管道基础之Shader模块 Shader modules Unlike earlier APIs, shader code in Vulkan has to be s ...

  6. 深度学习与CV教程(13) | 目标检测 (SSD,YOLO系列)

    作者:韩信子@ShowMeAI 教程地址:http://www.showmeai.tech/tutorials/37 本文地址:http://www.showmeai.tech/article-det ...

  7. VB6 GDI+ 入门教程[1] GDI+介绍

    http://vistaswx.com/blog/article/category/tutorial/page/2 VB6 GDI+ 入门教程[1] GDI+介绍 2009 年 6 月 18 日 17 ...

  8. spark教程

    某大神总结的spark教程, 地址 http://litaotao.github.io/introduction-to-spark?s=inner

  9. Python爬虫教程-01-爬虫介绍

    Spider-01-爬虫介绍 Python 爬虫的知识量不是特别大,但是需要不停和网页打交道,每个网页情况都有所差异,所以对应变能力有些要求 爬虫准备工作 参考资料 精通Python爬虫框架Scrap ...

随机推荐

  1. node链接mongoDB及封装

    // 这个模块中封装所有对数据库的常用操作 const MongoClient = require('mongodb').MongoClient; const assert = require('as ...

  2. docker Tomcat镜像

    docker中的管理命令 首先需要去下载镜像. [root@CFCA ~]# docker pull tomcat    下载镜像[root@CFCA ~]# docker images       ...

  3. Spring Boot注入RestTemplate ,出现空指针解决办法

    SpringBoot 注入RestTemplate 我看了一下大都是让我们在启动类里面加一个Bean配置代码如下 @Autowired private RestTemplateBuilder buil ...

  4. 教材代码完成情况测试P402(ch13课上测试)

    一.任务要求 0 在Ubuntu中用自己的有位学号建一个文件,教材p402代码 1 修改代码,至少增加一个问题和答案 2 随机选多个问题中的一个进行提问,服务器要正确回答问题 3 提交运行结果截图,要 ...

  5. ajax 415

    ajax 发送post请求是出现415错误,是ajax的格式有问题,如下. $.ajax({ type: 'POST', url: '/login', data: { "username&q ...

  6. 浏览器端-W3School-HTML:HTML DOM Video 对象

    ylbtech-浏览器端-W3School-HTML:HTML DOM Video 对象 1.返回顶部 1. HTML DOM Video 对象 Video 对象 Video 对象是 HTML5 中的 ...

  7. java源码-CountDownLatch源码分析

    这次分析CountDownLatch,相信大部分人都用过把! CountDownLatch内部还是Sync对象,还是基础AQS(可见其重要性),首先看一下CountDownLatch初始化,Count ...

  8. Introduction to pointers in C

    The basic purpose of developing a C programming tutorial for this website – CircuitsToday – is to ma ...

  9. java游戏服务器 建造者模式

    这里的具体的建造者ConcreteBuilder可以多个 这里我们以建造汽车为例: 假设汽车需要:方向盘.汽车壳.还有四个轮子  ---------这三样才能跑起来 如果你因为粗心漏了其中的某个建造过 ...

  10. 【DataBase】mysql连接错误:Cannot get hostname for your address

    问题 环境:win7 + 64Bit + 本地mysql5.6 问题:navicat连接本地mysql数据库,提示“Cannot get hostname for your address”,但是连接 ...