【Scala】利用akka实现Spark启动通信
思路分析
1.首先启动master,然后依次启动worker
2.启动worker时,向master发送注册信息(使用case class封装注册信息——workerID,memory,cores)
3.接收注册信息,保存注册的worker信息,返回注册成功的消息
4.worker需要定时向master发送心跳信息,这么做的目的是报活
5.master需要定时进行心跳超时检测,剔除心跳超时的worker
步骤
一、创建maven工程,导包
<properties>
<maven.compiler.source>1.8</maven.compiler.source>
<maven.compiler.target>1.8</maven.compiler.target>
<encoding>UTF-8</encoding>
<scala.version>2.11.8</scala.version>
<scala.compat.version>2.11</scala.compat.version>
</properties>
<dependencies>
<dependency>
<groupId>org.scala-lang</groupId>
<artifactId>scala-library</artifactId>
<version>${scala.version}</version>
</dependency>
<dependency>
<groupId>com.typesafe.akka</groupId>
<artifactId>akka-actor_2.11</artifactId>
<version>2.3.14</version>
</dependency>
<dependency>
<groupId>com.typesafe.akka</groupId>
<artifactId>akka-remote_2.11</artifactId>
<version>2.3.14</version>
</dependency>
</dependencies>
<build>
<sourceDirectory>src/main/scala</sourceDirectory>
<testSourceDirectory>src/test/scala</testSourceDirectory>
<plugins>
<!-- 限制jdk的编译版本插件 -->
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-compiler-plugin</artifactId>
<version>3.0</version>
<configuration>
<source>1.8</source>
<target>1.8</target>
<encoding>UTF-8</encoding>
</configuration>
</plugin>
<plugin>
<groupId>net.alchim31.maven</groupId>
<artifactId>scala-maven-plugin</artifactId>
<version>3.2.2</version>
<executions>
<execution>
<goals>
<goal>compile</goal>
<goal>testCompile</goal>
</goals>
<configuration>
<args>
<arg>-dependencyfile</arg>
<arg>${project.build.directory}/.scala_dependencies</arg>
</args>
</configuration>
</execution>
</executions>
</plugin>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-shade-plugin</artifactId>
<version>2.4.3</version>
<executions>
<execution>
<phase>package</phase>
<goals>
<goal>shade</goal>
</goals>
<configuration>
<filters>
<filter>
<artifact>*:*</artifact>
<excludes>
<exclude>META-INF/*.SF</exclude>
<exclude>META-INF/*.DSA</exclude>
<exclude>META-INF/*.RSA</exclude>
</excludes>
</filter>
</filters>
<transformers>
<transformer implementation="org.apache.maven.plugins.shade.resource.AppendingTransformer">
<resource>reference.conf</resource>
</transformer>
<transformer implementation="org.apache.maven.plugins.shade.resource.ManifestResourceTransformer">
<mainClass></mainClass>
</transformer>
</transformers>
</configuration>
</execution>
</executions>
</plugin>
</plugins>
</build>
二、master进程代码开发
import akka.actor.{Actor, ActorRef, ActorSystem, Props}
import com.typesafe.config.{Config, ConfigFactory}
import scala.collection.mutable
import scala.collection.mutable.ArrayBuffer
import scala.concurrent.duration._
//todo 利用akka实现spark通信---master端
class Master extends Actor {
//定义数据结构map 保存worker注册信息 k:workerId v:workerInfo
private val workerInfoMap = new mutable.HashMap[String, WorkerInfo]()
//定义数据结构保存worker信息,便于后续业务根据worker资源排序 (可选项)
private val workerInfoArray = new ArrayBuffer[WorkerInfo]()
override def preStart(): Unit = {
//在初始化中完成首次心跳超时检查,后续间隔指定的时间检查
//todo 记得导包
import context.dispatcher
context.system.scheduler.schedule(0 millis,12000 millis,self,CheckTimeOut)
}
//用receive方法持续不断接收处理akka actor的消息
override def receive: Receive = {
//用于接收注册信息
case RegisterMessage(workerId,memory,cores) => {
//判断worker是否注册
if (!workerInfoMap.contains(workerId)){
//如果未注册
val workerInfo = new WorkerInfo(workerId, memory, cores)
workerInfoMap.put(workerId,workerInfo)
workerInfoArray += workerInfo
//注册成功 返回注册成功信息
sender ! RegisterSuccess(s"$workerId,congratulations!You successfully login!")
}
}
//用于接收worker心跳信息
case HeartBeatMessage(workerId) =>{
//判断workerId是否注册,如果注册 更新上次心跳时间
if (workerInfoMap.contains(workerId)){
//把当前系统的时间更新为worker上次心跳的时间
val nowTime: Long = System.currentTimeMillis()
val info: WorkerInfo = workerInfoMap(workerId)
info.lastHeartBeatTime = nowTime
}
}
//用于心跳超时检查
case CheckTimeOut =>
//如何判断心跳超时?
//当前时间 - 上次心跳时间(10s) > 10 如果没有网络波动应该是这样
//如果要考虑网络波动,则可以 当前时间 - 上次心跳时间(10s) > 10
val outTimeWorker: ArrayBuffer[WorkerInfo] = workerInfoArray.filter(x => System.currentTimeMillis() - x.lastHeartBeatTime > 12000)
//遍历超时worker并剔除
for (w <- outTimeWorker){
val workerId = w.workerId
workerInfoMap.remove(workerId)
workerInfoArray -= w
//打印超时的workId
println(s"$workerId 已超时")
}
//打印当前存活的workerId数
println(s"当前存活的worker个数是 ${workerInfoArray.size}")
//worker排序
println(workerInfoArray.sortBy(x => x.memory).reverse)
}
}
object Master {
def main(args: Array[String]): Unit = {
//master host
val host = args(0)
//master port
val port = args(1)
//创建config需要解析的字符串
val configStr: String =
s"""
|akka.actor.provider = "akka.remote.RemoteActorRefProvider"
|akka.remote.netty.tcp.hostname = "$host"
|akka.remote.netty.tcp.port = "$port"
|""".stripMargin
//创建ActorSystem需要的config
val config: Config = ConfigFactory.parseString(configStr)
//创建ActorSystem
val masterActorSystem: ActorSystem = ActorSystem.create("masterActorSystem", config)
//创建masterActor
val master: ActorRef = masterActorSystem.actorOf(Props(new Master), "masterActor")
}
}
三、worker进程代码开发
import java.util.UUID
import akka.actor.{Actor, ActorRef, ActorSelection, ActorSystem, Props}
import com.typesafe.config.{Config, ConfigFactory}
import scala.concurrent.duration._
//todo 利用akka实现spark通信---worker端
class Worker(memory: Int,cores: Int) extends Actor {
var master: ActorSelection = _
//workerID
val workerId = UUID.randomUUID().toString
override def preStart(): Unit = {
//引用master (协议、masterActorSystem、ip、端口号、actorMaster、actor层级)
master = context.actorSelection("akka.tcp://masterActorSystem@192.168.0.108:12323/user/masterActor")
//给master发送注册信息 使用case class封装
master ! RegisterMessage(workerId,memory,cores)
}
override def receive: Receive = {
//接收master返回的注册成功信息
case RegisterSuccess(msg) => {
println(msg)
//注册成功,立即开始首次心跳,以后间隔指定的时间进行心跳
//需要四个参数,心跳开始时间、心跳间隔时间、发给谁、发送信息
//定时的消息只能发送给自己
//todo 记得导包
import context.dispatcher
context.system.scheduler.schedule(0 millis,10000 millis,self,HeartBeat)
}
//接收心跳提醒,完成真正的心跳动作
case HeartBeat => {
master ! HeartBeatMessage(workerId)
}
}
}
object Worker{
def main(args: Array[String]): Unit = {
//worker host
val host = args(0)
//worker port
val port = args(1)
//worker memory
val memory = args(2).toInt
//worker cores
val cores = args(3).toInt
//创建config要解析的字符串
val configStr: String =
s"""
|akka.actor.provider = "akka.remote.RemoteActorRefProvider"
|akka.remote.netty.tcp.hostname = "$host"
|akka.remote.netty.tcp.port = "$port"
|
|""".stripMargin
//创建ActorSystem需要的configuration
val config: Config = ConfigFactory.parseString(configStr)
//创建ActorSystem
val workerActorSystem: ActorSystem = ActorSystem.create("workerActorSystem", config)
//创建workerActor
val worker: ActorRef = workerActorSystem.actorOf(Props(new Worker(memory,cores)), "workerActor")
}
}
【Scala】利用akka实现Spark启动通信的更多相关文章
- Scala进阶之路-Spark底层通信小案例
Scala进阶之路-Spark底层通信小案例 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.Spark Master和worker通信过程简介 1>.Worker会向ma ...
- 【Scala】利用Akka的actor编程模型,实现2个进程间的通信
文章目录 步骤 一.创建maven工程,导入jar包 二.master进程代码开发 三.worker进程代码开发 四.控制台结果 步骤 一.创建maven工程,导入jar包 <propertie ...
- Spark --- 启动、运行、关闭过程
// scalastyle:off println package org.apache.spark.examples import scala.math.random import org.apac ...
- spark 启动job的流程分析
从WordCount開始分析 编写一个样例程序 编写一个从HDFS中读取并计算wordcount的样例程序: packageorg.apache.spark.examples importorg.ap ...
- Scala进阶之路-Spark本地模式搭建
Scala进阶之路-Spark本地模式搭建 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.Spark简介 1>.Spark的产生背景 传统式的Hadoop缺点主要有以下两 ...
- Spark:利用Eclipse构建Spark集成开发环境
前一篇文章“Apache Spark学习:将Spark部署到Hadoop 2.2.0上”介绍了如何使用Maven编译生成可直接运行在Hadoop 2.2.0上的Spark jar包,而本文则在此基础上 ...
- Scala进阶之路-Spark独立模式(Standalone)集群部署
Scala进阶之路-Spark独立模式(Standalone)集群部署 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 我们知道Hadoop解决了大数据的存储和计算,存储使用HDFS ...
- Scala使用Akka模拟RPC机制代码
上代码: 另一个版本(自己加注释):http://www.cnblogs.com/DreamDrive/p/6740440.html RemoteMessage.scala trait Remote ...
- 使用IDEA打包scala程序并在spark中运行
一.首先配置ssh无秘钥登陆, 先使用这条命令:ssh-keygen,然后敲三下回车: 然后使用cd .ssh进入 .ssh这个隐藏文件夹: 再创建一个文件夹authorized_keys,使用命令t ...
随机推荐
- day22作业
# 1.检索文件夹大小的程序,要求执行方式如下 # python3.8 run.py 文件夹 import os,sys l = sys.argv[1] size = 0 def get_size(f ...
- 拍照购物APP之可行性分析
你一定有过这样的生活经历:走在路上发现一个陌生人的穿着非常符合自己的穿衣品味,想要购买一件同样款式的衣服却找不到购买地址,偷偷拍了张照片也只能留作纪念.此时,在手机上安装一款通过图片进行购物搜索的AP ...
- Equalizing by Division
The only difference between easy and hard versions is the number of elements in the array. You are g ...
- 4. git log的常见用法
git log ======见https://blog.csdn.net/daguanjia11/article/details/73823617 +++++++++++++++++++++++ 使用 ...
- [转+自]disable_functions之巧用LD_PRELOAD突破
写在前面: 通过知乎的一篇艰难的渗透提权,引发了一些对于disable_funcionts绕过的思考,虽然在暑假日记中记载了四种绕过disable_functions,比如com组件,pcntl_ex ...
- C# 基础知识系列- 12 任务和多线程
0. 前言 照例一份前言,在介绍任务和多线程之前,先介绍一下异步和同步的概念.我们之间介绍的知识点都是在同步执行,所谓的同步就是一行代码一行代码的执行,就像是我们日常乘坐地铁通过安检通道一样,想象我们 ...
- Soul Android app 悬浮view以及帖子中view的联动刷新逆向分析
Soul app是我司的竞品,对它的语音音乐播放同步联动的逻辑很感兴趣,于是就开启了一波逆向分析. 下面看代码,以及技术分析,直接步入正轨,哈哈. 我们根据https://github.com/xin ...
- PHP 常用数组的具体运用?常用吗?
在 PHP 中,有三种类型的数组: 数值数组 - 带有数字 ID 键的数组 关联数组 - 带有指定的键的数组,每个键关联一个值 多维数组 - 包含一个或多个数组的数组 看具体实例: 创建数组 < ...
- SVM家族(一)
SVM家族简史 故事要从20世纪50年代说起,1957年,一个叫做感知器的模型被提出, 1963年, Vapnikand Chervonenkis, 提出了最大间隔分类器,SVM诞生了. 1992年, ...
- Robot Framework -002 在Windows10上的安装
机器人框架是使用Python实现的,并且还支持Jython(JVM),IronPython(.NET)和PyPy. 在安装框架之前,一个明显的前提条件是至少安装这些解释器之一. 下面列出了安装Robo ...