Spark系列(八)Worker工作原理
工作原理图
源代码分析
包名:org.apache.spark.deploy.worker
启动driver入口点:registerWithMaster方法中的case LaunchDriver
1 | ) => DriverState.FINISHED |
37 | case _ => DriverState.FAILED |
38 | } |
39 | } |
40 | |
41 | finalState = Some(state) |
42 | // 向Driver所属worker发送DriverStateChanged消息 |
43 | worker ! DriverStateChanged(driverId, state, finalException) |
44 | } |
45 | }.start() |
46 | } |
LaunchExecutor
管理LaunchExecutor的启动
1 | case LaunchExecutor(masterUrl, appId, execId, appDesc, cores_, memory_) => |
2 | if (masterUrl != activeMasterUrl) { |
3 | logWarning("Invalid Master (" + masterUrl + ") attempted to launch executor.") |
4 | } else { |
5 | try { |
6 | logInfo("Asked to launch executor %s/%d for %s".format(appId, execId, appDesc.name)) |
7 | |
8 | // Create the executor's working directory |
9 | // 创建executor本地工作目录 |
10 | val executorDir = new File(workDir, appId + "/" + execId) |
11 | if (!executorDir.mkdirs()) { |
12 | throw new IOException("Failed to create directory " + executorDir) |
13 | } |
14 | |
15 | // Create local dirs for the executor. These are passed to the executor via the |
16 | // SPARK_LOCAL_DIRS environment variable, and deleted by the Worker when the |
17 | // application finishes. |
18 | val appLocalDirs = appDirectories.get(appId).getOrElse { |
19 | Utils.getOrCreateLocalRootDirs(conf).map { dir => |
20 | Utils.createDirectory(dir).getAbsolutePath() |
21 | }.toSeq |
22 | } |
23 | appDirectories(appId) = appLocalDirs |
24 | // 创建ExecutorRunner对象 |
25 | val manager = new ExecutorRunner( |
26 | appId, |
27 | execId, |
28 | appDesc.copy(command = Worker.maybeUpdateSSLSettings(appDesc.command, conf)), |
29 | cores_, |
30 | memory_, |
31 | self, |
32 | workerId, |
33 | host, |
34 | webUi.boundPort, |
35 | publicAddress, |
36 | sparkHome, |
37 | executorDir, |
38 | akkaUrl, |
39 | conf, |
40 | appLocalDirs, ExecutorState.LOADING) |
41 | // executor加入本地缓存 |
42 | executors(appId + "/" + execId) = manager |
43 | manager.start() |
44 | // 增加worker已使用core |
45 | coresUsed += cores_ |
46 | // 增加worker已使用memory |
47 | memoryUsed += memory_ |
48 | // 通知master发送ExecutorStateChanged消息 |
49 | master ! ExecutorStateChanged(appId, execId, manager.state, None, None) |
50 | } |
51 | // 异常情况处理,通知master发送ExecutorStateChanged FAILED消息 |
52 | catch { |
53 | case e: Exception => { |
54 | logError(s"Failed to launch executor $appId/$execId for ${appDesc.name}.", e) |
55 | if (executors.contains(appId + "/" + execId)) { |
56 | executors(appId + "/" + execId).kill() |
57 | executors -= appId + "/" + execId |
58 | } |
59 | master ! ExecutorStateChanged(appId, execId, ExecutorState.FAILED, |
60 | Some(e.toString), None) |
61 | } |
62 | } |
63 | } |
总结
1、Worker、Driver、Application启动后都会向Master进行注册,并缓存到Master内存数据模型中
2、完成注册后发送LaunchExecutor、LaunchDriver到Worker
3、Worker收到消息后启动executor和driver进程,并调用Worker的ExecutorStateChanged和DriverStateChanged方法
4、发送ExecutorStateChanged和DriverStateChanged消息到Master的,根据各自的状态信息进行处理,最重要的是会调用schedule方法进行资源的重新调度
Spark系列(八)Worker工作原理的更多相关文章
- Spark系列(十)TaskSchedule工作原理
工作原理图 源码分析: 1.) 25 launchedTask = true 26 } 27 } catch { 28 ...
- Spark系列(九)DAGScheduler工作原理
以wordcount为示例进行深入分析 1 33 ) { 46 logInfo("Submitting " + tasks.size + " missi ...
- line-height系列——定义和工作原理总结
一.line-height的定义和工作原理总结 line-height的属性值: normal 默认 设置合理的行间距. number 设置数字,此数字会与当前的字体尺寸相乘来设置行间距li ...
- 源码分析八( hashmap工作原理)
首先从一条简单的语句开始,创建了一个hashmap对象: Map<String,String> hashmap = new HashMap<String,String>(); ...
- [Spark内核] 第32课:Spark Worker原理和源码剖析解密:Worker工作流程图、Worker启动Driver源码解密、Worker启动Executor源码解密等
本課主題 Spark Worker 原理 Worker 启动 Driver 源码鉴赏 Worker 启动 Executor 源码鉴赏 Worker 与 Master 的交互关系 [引言部份:你希望读者 ...
- 【原】Learning Spark (Python版) 学习笔记(三)----工作原理、调优与Spark SQL
周末的任务是更新Learning Spark系列第三篇,以为自己写不完了,但为了改正拖延症,还是得完成给自己定的任务啊 = =.这三章主要讲Spark的运行过程(本地+集群),性能调优以及Spark ...
- How Javascript works (Javascript工作原理) (八) WebAssembly 对比 JavaScript 及其使用场景
个人总结: webworker有以下三种: Dedicated Workers 由主进程实例化并且只能与之进行通信 Shared Workers 可以被运行在同源的所有进程访问(不同的浏览的选项卡,内 ...
- 49、Spark Streaming基本工作原理
一.大数据实时计算介绍 1.概述 Spark Streaming,其实就是一种Spark提供的,对于大数据,进行实时计算的一种框架.它的底层,其实,也是基于我们之前讲解的Spark Core的. 基本 ...
- 46、Spark SQL工作原理剖析以及性能优化
一.工作原理剖析 1.图解 二.性能优化 1.设置Shuffle过程中的并行度:spark.sql.shuffle.partitions(SQLContext.setConf()) 2.在Hive数据 ...
随机推荐
- 嵌入式控制(0)----linux系统网络配置
嵌入式系统本身具有操作系统的全部属性,但收到其硬件条件制约,故需要主机通过串口/网口等方式与其通信.今日下午的工作主要是linux系统的ssh传输配置,nfs服务器配置,tftp服务器配置. ip的概 ...
- shell编程基础(5)---循环指令
while类型的循环 while类型的循环是不定循环的一种,每一次循环都会验证给出的循环条件,判断是否要进行下一次循环.linux中while循环的写法和c语言中很想,但是条件给出的方式有些区别. 首 ...
- LA 6047 Perfect Matching 字符串哈希
一开始我用的Trie+计数,但是不是计多了就是计少了,后来暴力暴过去的…… 看了别人的代码知道是字符串哈希,但是仍有几个地方不理解: 1.26^500溢出问题 2.没考虑哈希碰撞? 跪求指点! #in ...
- Java内部类总结 分类: 原理 2015-06-28 09:51 9人阅读 评论(0) 收藏
内部类是指在一个外部类的内部再定义一个类.内部类作为外部类的一个成员,并且依附于外部类而存在的. 内部类可为静态,可用protected和private修饰(而外部类只能使用public和缺省的包访问 ...
- struts.custom.i18n.resources 如何配置多个资源文件?
struts.custom.i18n.resources = resources1,resources2,resources3 配置properties文件
- ASP.NET MVC 学习5、登陆页面改为SSO验证
单点登录(SSO,single sign-on)是一个会话或用户身份验证过程,用户只需要登录一次就可以访问所有相互信任的应用系统,二次登录时无需重新输入用户名和密码.简化账号登录过程并保护账号和密码安 ...
- bzoj1927: [Sdoi2010]星际竞速
跟上一题几乎一样... #include<cstdio> #include<cstring> #include<iostream> #include<algo ...
- 无法连接到SQL Server 2008 R2
服务器环境: 操作系统 名称: Microsoft Windows Server 2008 R2 Enterprise 版本: 6.1.7601 服务包: Ser ...
- 如何使用jetty
一直都听说jetty跟Tomcat一样,是一个web容器.之前做项目的时候,也使用过jetty,不过当时jetty是作为一个插件,跟maven集成使用的.那个时候,由于是第一次使用jetty,感觉je ...
- 让你的 Node.js 应用跑得更快的 10 个技巧(转)
Node.js 受益于它的事件驱动和异步的特征,已经很快了.但是,在现代网络中只是快是不行的.如果你打算用 Node.js 开发你的下一个Web 应用的话,那么你就应该无所不用其极,让你的应用更快,异 ...