Spark- Spark内核架构原理和Spark架构深度剖析
Spark内核架构原理
1.Driver
选spark节点之一,提交我们编写的spark程序,开启一个Driver进程,执行我们的Application应用程序,也就是我们自己编写的代码。Driver会根据我们对RDD定义的操作,提交一大堆的task去Executor上。Driver注册了一些Executor之后,就可以开始正式执行我们的Spark应用程序了,首先第一步,创建初始RDD,读取数据。HDFS文件内容被读取到多个Worker节点上,形成内存中的分布式数据集,也就是初始RDD。
2.Master
是一个进程,主要负责资源的调度和分配,还有集群的监控等职责。
3.Worker
由我们spark配置文件slave决定,它是一个进程。主要负责两个,一个是自己内存存储的RDD的某个partition ;另一个是启动其他进程和线程,对RDD上的partition 进行并行的处理和计算。
4.Executor
Worker会为应用程序启动Executor,Executor是一个进程。Executor启动之后,会向Driver进行反注册,这样,Driver就知道,哪些Executor是为它服务的了。Executor接收到task之后,会启动多个线程来执行task。
5.Task
Executor会为应用程序启动Task线程,Executor和Task其实就是执行负责执行,对RDD的partition 进行并行的计算了,也就是执行我们对RDD定义的,比如map,flatMap,reduce等算子操作。task会对RDD的partition数据执行指定的算子操作,形成新的RDD的partition。Task有两种:ShuffleMapTask和ResultTask,只有最后一个stage 是ResultTask,之前的stage都是ShuffleMapTask。
Spark架构深度剖析
我们有一个Spark应用程序(Application)选择一台安装了spark的节点作为client,当我们通过spark-submit结合shell提交Application就会在client中启动一个Driver进程。spark-submit使用我们之前一直使用的那种提交模式去提交的时候,我们之前的提交模式叫做standalone,其实会通过反射的方式,创建一和构造一个DriverActor进程出来。
Driver进程启动之后,会做一些初始化的操作,我们在编写的spark应用时第一行就是先构造 SparkConf,再构造 SparkContext。SparkContext 在初始化的时候,做的最重要的两件事是,就是构造出来 DAGScheduler 和 TaskScheduler。
TaskScheduler 实际上会负责通过它对应的一个后台进程去连接spark集群上的 Master 节点,向Master注册Application。说白了就是让Master 知道,有一个新的Spark应用程序要运行。
Master在接受到Spark应用程序(Application)的注册申请之后,会通过自己的资源调度算法,会发送请求给在spark集群的 Worker,为这个 Application 启动多个 Executor。为该应用程序进行资源的调度和分配,资源分配就是 Executor 的分配。
Worker 接收到 Master 的请求之后,会为 Spark 应用(Application)启动 Executor。Executor干的第一件事情是,Executor启动之后会自己反向注册到 TaskScheduler 上,这样,TaskScher 就知道,哪些Executor是为它服务的了。所有Executor都反向注册到 Driver 上之后,Driver 结束 SparkContext 初始化,会继续执行我们的代码。
每执行到一个action,就会创建一个job,把job提交给DAGScheduler。DAGScher会将job划分为多个stage,然后每个stage创建一个TaskSet,每个 TaskSet 给 TaskScheduler 。
TaskScheduler 会把TaskSet里每一个Task提交到Executor上执行(task分配算法)。
Executor每接收到一个Task,都会用TaskRunner来封装Task,然后从线程池里取出一个线程,执行这个Task。TaskRunner将我们编写的代码,也就是要执行的算子以及函数,拷贝,反序列化,然后执行Task。Task有两种:ShuffleMapTask和ResultTask,只有最后一个stage 是ResultTask,之前的stage都是ShuffleMapTask。
所以,最后整个spark应用程序的执行,就是stage分批次作为TaskSet提交到Executor执行,每个task针对RDD的一个partition,执行我们定义的算子和函数,以此类推,直到所有的操作执行完为止。
Spark- Spark内核架构原理和Spark架构深度剖析的更多相关文章
- nagios二次开发(四)---nagios监控原理和nagios架构简介
nagios监控原理 下面根据上面摘自网络的原理图对nagios的监控原理进行一下简单的说明: 1.nagios通过nsca进行被动监控.那么什么是被动监控呢?被动监测:就是指由被监测的服务器主动上传 ...
- 大数据体系概览Spark、Spark核心原理、架构原理、Spark特点
大数据体系概览Spark.Spark核心原理.架构原理.Spark特点 大数据体系概览(Spark的地位) 什么是Spark? Spark整体架构 Spark的特点 Spark核心原理 Spark架构 ...
- Spark入门(1-2)Spark的特点、生态系统和技术架构
一.Spark的特点 Spark特性 Spark通过在数据处理过程中成本更低的洗牌(Shuffle)方式,将MapReduce提升到一个更高的层次.利用内存数据存储和接近实时的处理能力,Spark比其 ...
- Spark技术内幕:Storage 模块整体架构
Storage模块负责了Spark计算过程中所有的存储,包括基于Disk的和基于Memory的.用户在实际编程中,面对的是RDD,可以将RDD的数据通过调用org.apache.spark.rdd.R ...
- Spark集群基础概念 与 spark架构原理
一.Spark集群基础概念 将DAG划分为多个stage阶段,遵循以下原则: 1.将尽可能多的窄依赖关系的RDD划为同一个stage阶段. 2.当遇到shuffle操作,就意味着上一个stage阶段结 ...
- 系统架构--分布式计算系统spark学习(三)
通过搭建和运行example,我们初步认识了spark. 大概是这么一个流程 ------------------------------ -------------- ...
- 63、Spark Streaming:架构原理深度剖析
一.架构原理深度剖析 StreamingContext初始化时,会创建一些内部的关键组件,DStreamGraph,ReceiverTracker,JobGenerator,JobScheduler, ...
- 【大数据处理架构】1.spark streaming
1. spark 是什么? >Apache Spark 是一个类似hadoop的开源高速集群运算环境 与后者不同的是,spark更快(官方的说法是快近100倍).提供高层JAVA,Scala, ...
- 【原】Spark中Client源码分析(二)
继续前一篇的内容.前一篇内容为: Spark中Client源码分析(一)http://www.cnblogs.com/yourarebest/p/5313006.html DriverClient中的 ...
随机推荐
- 403/you don't have the permission to access on this server
Localhost/index.php出现 错误403 you don't have the permission to access on this server 现在已经解决,特将方法与大家分享. ...
- 从头认识java-17.5 堵塞队列(以生产者消费者模式为例)
这一章节我们来讨论一下堵塞队列.我们以下将通过生产者消费者模式来介绍堵塞队列. 1.什么是堵塞队列?(摘自于并发编程网对http://tutorials.jenkov.com/java-concurr ...
- 如何更好的利用Node.js的性能极限
通过使用非阻塞.事件驱动的I/O操作,Node.js为构建和运行大规模网络应用及服务提供了很好的平台,也受到了广泛的欢迎.其主要特性表现为能够处理庞大的并且高吞吐量的并发连接,从而构建高性能.高扩展性 ...
- lucas定理证明
Lucas 定理(证明) A.B是非负整数,p是质数.AB写成p进制:A=a[n]a[n-1]...a[0],B=b[n]b[n-1]...b[0]. 则组合数C(A,B)与C(a[n],b[n])* ...
- iptables的例子1
练习1:实现主机防火墙 设置主机防火墙策略为DROP: iptables -t filter -P INPUT DROP iptables -t filter -P OUTPUT DROP i ...
- Python菜鸟之路:Python基础-模块
什么是模块? 在计算机程序的开发过程中,随着程序代码越写越多,在一个文件里代码就会越来越长,越来越不容易维护.为了编写可维护的代码,我们把很多函数分组,分别放到不同的文件里,分组的规则就是把实现了某个 ...
- 矩阵乘法 NOI2012的一道题
今天,kzj大佬教了我矩阵加速. 让我以这篇随笔表示感谢吧! 这是我刷的一道题:NOI2012 随机数据生成器. 就是普通的矩阵加速,只是要注意的是: 直接用乘法会爆long long,可以参考一下 ...
- 洛谷 P3674 小清新人渣的本愿
想看题目的戳我. 我刚开始觉得这道题目好难. 直到我从Awson大佬那儿了解到有一个叫做bitset的STL,这道题目就很容易被解开了. 想知道这个神奇的bitset的戳我. 这个题目一看就感觉是莫队 ...
- python+NLTK 自然语言学习处理六:分类和标注词汇一
在一段句子中是由各种词汇组成的.有名词,动词,形容词和副词.要理解这些句子,首先就需要将这些词类识别出来.将词汇按它们的词性(parts-of-speech,POS)分类并相应地对它们进行标注.这个过 ...
- Unknown Entity namespace alias 'BaseMemberBundle'.
$em = $this->getDoctrine()->getManager('member');//要记得写上member $repo = $em->getRepository(' ...