Spark 概念学习系列之Spark存储管理机制
Spark存储管理机制
概要
01 存储管理概述
02 RDD持久化
03 Shuffle数据存储
04 广播变量与累加器
01 存储管理概述
思考:
RDD,我们可以直接使用而无须关心它的实现细节,RDD是Spark的基础,但是有个问题大家也许会比较关心:RDD所操作的数据究竟在哪里?它是如何存储的。
回顾:
          
1.1 、存储管理模块架构—从架构上来看
         
1.1.1 通信层
通信层面采用主从方式实现通信(主从节点间互换消息)
1.1.2 存储层
存储层负责提供接口来存储数据(可把数据存储到内存,磁盘,或者远端)
1.2 存储管理模块架构—从功能上来看
1.2.1 RDD缓存
整个存储管理模块主要的工作是作为RDD的缓存,包括基于内存和磁盘的缓存
1.2.2 Shuffle数据的持久化
Shuffle中间结果的数据也是交由存储管理模块进行管理的。Shuffle性能的好坏直接影响了Spark应用程序整体的性能,因此存储管理模块中对于Shuffle数据的处理有别于传统的RDD。
1.2.3 缓存
注意:还有其他数据的存储,请移步。见
储模块由操作类BlockManager统一对外提供服务
1.3 存储管理模块架构—通信层

              
1.4 存储管理模块架构—通信层--BlockManager
(1)BlockManager类通过BlockManagerMaster进行通信;
(2)主节点的BlockManager会包含所有从节点的BlockManager信息;
(3)主从节点之间通过各自的BlockManagerMasterActor来进行相互通信;
1.5 存储管理模块架构—存储层
        
1.6 存储管理模块架构—数据块与分区的关系
我们知道,RDD是基于分区(partition)来计算的。
          
在存储管理中,存储是以block为单位的。实际上RDD的partition与block是一一对应的。他两是通过映射关系联系到一起的。
具体映射关系:block名=“rddID+分区索引号”。

02 RDD持久化
2.1 回顾—RDD控制操作
persist操作,可以将RDD持久化到不同层次的存储介质,以便后续操作重复使用。
1.cache:RDD[T]
2.persist:RDD[T]
3.persist(level:StorageLevel):RDD[T]
首次使用RDD的时候,我们可以选择对RDD进行持久化,当再次使用RDD是就可以直接从之前的缓存中获取而无需再次进行计算。对于需要反复使用的RDD会带来很大的性能改善。
2.2 持久化级别
            
2.3 如何选择持久化级别
首选MEMORY_ONLY;其次选MEMORY_ONLY_SER;
如果数据量大且重新计算的开销大,那就用MEMORY_AND_DISK;
如果要确保快速的恢复机制,那就选MEMORY_ONLY_2,
MEMORY_AND_DISK_2(因为有备份)
注意:具体选择时需要结合应用特点以及机器性能做出权衡
2.4 缓存淘汰机制
当数据超过缓存阈值时:Spark会丢弃一部分内存中的数据或者将一部分数据从内存移出到磁盘中(LRU),具体情况依据RDD的持久化选项。
如果是直接丢弃数据的话,程序会否报错呢?
答案是不一定的。如果被删除的数据的祖先是可被回溯到的,那么可以通过重新计算得到丢失的数据;相反,程序会报错哦。
RDD 还有一个方法叫作unpersist(),调用该方法可以手动把持久化的RDD 从缓存中移除
03 Shuffle数据持久化

shuffle数据必须是在磁盘上进行缓存,不能选择在内存中缓存;
RDD在磁盘持久化时一个block对应一个文件,而shuffle数据块只是逻辑上的概念,存储方式因实现方式不同而不同:0
默认将shuffle数据块,也就是一个bucket映射成文件(文件过多)
另外一种方式是将shuffle数据块映射成文件中的一段(将spark.shuffle.consolidateFiles设置为TRUE)
04、广播变量和累加器
4.1 广播变量--Broadcast Variables
实现数据在每个节点上都有一份拷贝
广播变量也是存储模块来管理的,以MEMORY_AND_DISK方式存储
val signPrefixes = sc.broadcast(loadCallSignTable())
val countryContactCounts = contactCounts.map{case (sign, count) =>
val country = lookupInArray(sign, signPrefixes.value)
(country, count)
}.reduceByKey((x, y) => x + y)
countryContactCounts.saveAsTextFile(outputDir + "/countries.txt")
4.2 累加器--Accumulators
提供了将工作节点中的值聚合到驱动器程序中的简单语法
val sc = new SparkContext(...)
val file = sc.textFile("file.txt")
val blankLines = sc.accumulator() // 创建Accumulator[Int]并初始化为0
val callSigns = file.flatMap(line => {
if (line == "") {
blankLines += // 累加器加1
}
line.split(" ")
})
callSigns.saveAsTextFile("output.txt")
println("Blank lines: " + blankLines.value)
Spark 概念学习系列之Spark存储管理机制的更多相关文章
- Spark 概念学习系列之Spark 多语言编程
		不多说,直接上干货! Spark 同时支持Scala.Python.Java 三种应用程序API编程接口和编程方式, 考虑到大数据处理的特性,一般会优先使用Scala进行编程,其次是Python,最后 ... 
- Spark 概念学习系列之Spark基本概念和模型(十八)
		打好基础,别小瞧它! spark的运行模式多种多样,在单机上既可以本地模式运行,也可以伪分布模式运行.而当以分布式的方式在集群中运行时.底层的资源调度可以使用Mesos或者Yarn,也可使用spark ... 
- Spark 概念学习系列之Spark Core(十五)
		不多说,直接上干货! 最关键的是转换算子Transformations和缓存算子Actions. 主要是对RDD进行操作. RDD Objects -> Scheduler(DAGSched ... 
- Spark RDD概念学习系列之Spark Hash Shuffle内幕彻底解密(二十)
		本博文的主要内容: 1.Hash Shuffle彻底解密 2.Shuffle Pluggable解密 3.Sorted Shuffle解密 4.Shuffle性能优化 一:到底什么是Shuffle? ... 
- Spark Streaming概念学习系列之Spark Streaming容错
		Spark Streaming容错 检查点机制-checkpoint 什么是检查点机制? Spark Streaming 周期性地把应用数据存储到诸如HDFS 或Amazon S3 这样的可靠存储系统 ... 
- Spark RDD概念学习系列之Spark的算子的作用(十四)
		Spark的算子的作用 首先,关于spark算子的分类,详细见 http://www.cnblogs.com/zlslch/p/5723857.html 1.Transformation 变换/转换算 ... 
- Spark SQL概念学习系列之Spark SQL概述
		很多人一个误区,Spark SQL重点不是在SQL啊,而是在结构化数据处理! Spark SQL结构化数据处理 概要: 01 Spark SQL概述 02 Spark SQL基本原理 03 Spark ... 
- Spark RDD概念学习系列之Spark的算子的分类(十一)
		Spark的算子的分类 从大方向来说,Spark 算子大致可以分为以下两类: 1)Transformation 变换/转换算子:这种变换并不触发提交作业,完成作业中间过程处理. Transformat ... 
- Spark RDD概念学习系列之Spark的数据存储(十二)
		Spark数据存储的核心是弹性分布式数据集(RDD). RDD可以被抽象地理解为一个大的数组(Array),但是这个数组是分布在集群上的. 逻辑上RDD的每个分区叫一个Partition. 在Spar ... 
随机推荐
- Java读取txt文件和覆盖写入txt文件和追加写入txt
			//创建文件 public static void createFile(File filename) { try { if(!filename.exists()) { filename.create ... 
- C# DevExpress GridControl使用方法
			一.如何解决单击记录整行选中的问题 View->OptionsBehavior->EditorShowMode 设置为:Click 二.如何新增一条记录 ().gridView.AddNe ... 
- Important Abstractions and Data Structures
			For Developers > Coding Style >  Important Abstractions and Data Structures 目录 1 TaskRunne ... 
- Ubuntu16.04安装官方Firefox 火狐浏览器 延长支持版(Extended Support Release, 简称“ESR”)
			Ubuntu16.04安装官方Firefox 火狐浏览器 延长支持版(Extended Support Release, 简称“ESR”) 延长支持版本(Extended Support Releas ... 
- UI标签库专题九:JEECG智能开发平台 Choose(选则操作标签)
			 1. Choose(选则操作标签) 1.1. 參数 属性名 类型 描写叙述 是否必须 默认值 hiddenName string 隐藏域的ID 否 null hiddenid string 隐藏 ... 
- 认识 Atlassian Datacenter 产品
			认识 Atlassian Datacenter 产品 云端原本就是群集化的架构,Atlassian 系列产品.应用的开发团队相当广范且行之有年,可是将应用程序作为节点(比方Jira,confluenc ... 
- Razor数组数据
			控制器层 public ActionResult DemoArray() { Product[] array = { new Product {Name = "Kayak", Pr ... 
- SQL insert 主键冲突
			待总结 https://blog.csdn.net/JavaCoder_juejue/article/details/82313891 https://blog.csdn.net/a772304419 ... 
- 小的时候.by小雷
			小的时候,总是有很多想法. 想去做,却做不成. 因为,自己小,被父母约束着,被学校圈着,被老师教育着. 想买个小霸王游戏机,没钱.在父辈的眼中,"游戏" ,游戏室,电脑游戏 ... 
- 【Codecraft-18 and Codeforces Round #458 (Div. 1 + Div. 2, combined) B】 Conan and Agasa play a Card Game
			[链接] 我是链接,点我呀:) [题意] 在这里输入题意 [题解] 最大值出现次数是偶数. 那么就取次大值. 次大值也是偶数? =>再次 因为你绝对不能取偶数个的. 取了对方就总是能面对一个奇数 ... 
