Spark 1.6+推出了以RPCEnv、RPCEndpoint、RPCEndpointRef为核心的新型架构下的RPC通信方式。其具体实现有Akka和Netty两种方式,Akka是基于Scala的Actor的分布式消息通信系统,Netty是由JBOSS提供的一个java开源框架。Netty提供异步的、事件驱动的网络应用程序框架和工具,用以快速开发高性能、高可靠性的网络服务器和客户端程序。

Rpc Environment(RpcEnv)是一个RpcEndpoints用于处理消息的环境,它管理着整个RpcEndpoints的声明周期:(1)根据name或uri注册endpoints(2)管理各种消息的处理(3)停止endpoints。RpcEnv必须通过工厂类RpcEnvFactory创建。

RpcEndpoint需要注册到RpcEnv,RpcEnv处理从RpcEndpointRef或远程节点发送过来的消息,然后把响应消息给RpcEndpoint。对于Rpc捕获到的异常消息,RpcEnv将会用RpcCallContext.sendFailure将失败消息发送给发送者,或者将没有发送者、‘NotSerializableException’等记录到日志中。同时,RpcEnv也提供了根据name或uri获取RpcEndpointRef的方法。

Rpc、RpcEndpoint、RpcEndpointRef三者关系

1.RpcEnv源码分析

1.根据RpcEndpoint返回RpcEndpointRef,具体实现在RpcEndpoint.self方法中,如果RpcEndpointRef不存在,将返回null

private[rpc] def endpointRef(endpoint: RpcEndpoint): RpcEndpointRef

2.根据RpcEndpoint的name注册到RpcEnv中并返回它的一个引用RpcEndpointRef

def setupEndpoint(name: String, endpoint: RpcEndpoint): RpcEndpointRef

3.获取RpcEndpointRef的方法

(1)通过url获取RpcEndpointRef

//通过url异步获取RpcEndpointRef

def asyncSetupEndpointRefByURI(uri: String): Future[RpcEndpointRef]

//通过url同步获取RpcEndpointRef,这是一个阻塞操作

def setupEndpointRefByURI(uri: String): RpcEndpointRef = {

defaultLookupTimeout.awaitResult(asyncSetupEndpointRefByURI(uri))}

(2)根据systemName、address、endpointName获取RpcEndpointRef,其实是将三者拼接为uri,根据uri获取

//异步获取

def asyncSetupEndpointRef(

systemName: String, address: RpcAddress, endpointName: String): Future[RpcEndpointRef] = {

asyncSetupEndpointRefByURI(uriOf(systemName, address, endpointName))}

//同步获取

def setupEndpointRef(

systemName: String, address: RpcAddress, endpointName: String): RpcEndpointRef = {

setupEndpointRefByURI(uriOf(systemName, address, endpointName))

}

4.根据RpcEndpointRef停止RpcEndpoint

def stop(endpoint: RpcEndpointRef): Unit

5.等待直到RpcEnv退出

def awaitTermination(): Unit

6.RpcEndpointRef需要RpcEnv来反序列化,所以当反序列化RpcEndpointRefs的任何object时,应该通过该方法来操作

def deserializeT: T

2.RpcEndpoint源码分析

RpcEndpoint定义了由消息触发的一些函数,onStart, receive and onStop的调用是顺序发生的。它的声明周期是constructor -> onStart -> receive* -> onStop。注意,receive能并发操作,如果你想要receive是线程安全的,请使用ThreadSafeRpcEndpoint,如果RpcEndpoint抛出错误,它的onError方法将会触发。它有51个实现子类,我们比较熟悉的是Master、Worker、ClientEndpoint等。

1.启动RpcEndpoint处理任何消息

def onStart(): Unit = {}

2.停止RpcEndpoint

def onStop(): Unit = {}

3.处理RpcEndpointRef.send或RpcCallContext.reply方法,如果收到不匹配的消息,将抛出SparkException

def receive: PartialFunction[Any, Unit] = {

case _ => throw new SparkException(self + " does not implement 'receive'")}

4.处理RpcEndpointRef.ask方法,如果不匹配消息,将抛出SparkException

def receiveAndReply(context: RpcCallContext): PartialFunction[Any, Unit] = {

case _ => context.sendFailure(new SparkException(self + " won't reply anything"))}

5.当处理消息发生异常时

def onError(cause: Throwable): Unit = {

throw cause}

6.当远程地址连接到当前的节点地址时触发

def onConnected(remoteAddress: RpcAddress): Unit = {

}

7.当远程地址连接断开时触发

def onDisconnected(remoteAddress: RpcAddress): Unit = {

}

8.当远程地址和当前节点的连接发生网络异常时触发

def onNetworkError(cause: Throwable, remoteAddress: RpcAddress): Unit = {

// By default, do nothing.

}

3.RpcEndpointRef源码分析

RpcEndpointRef是RpcEndpoint的一个远程引用,是线程安全的。它有两个实现子类:即AkkaRpcEndpointRef和NettyRpcEndpointRef。

1.发送单方面的异步消息

def send(message: Any): Unit

2.发送一个消息给RpcEndpoint.receiveAndReply并返回一个Future在指定的时间内接受响应,本方法值请求一次

def askT: ClassTag: Future[T]

3.发送消息给RpcEndpoint并在默认的超时内得到结果,否则抛出SparkException,注意,本方法是一个阻塞操作可能消耗时间,所以不要早消息循环中调用它

def askWithRetryT: ClassTag: T = askWithRetry(message, defaultAskTimeout)

最后,画图说明一下两者的消息传递的过程,RpcEndpointRef作为消息的主动者,RpcEndpoint作为消息的被动者

RpcEndpoint、RpcEndpointRef

【原】Spark Rpc通信源码分析的更多相关文章

  1. Spark RPC框架源码分析(一)简述

    Spark RPC系列: Spark RPC框架源码分析(一)运行时序 Spark RPC框架源码分析(二)运行时序 Spark RPC框架源码分析(三)运行时序 一. Spark rpc框架概述 S ...

  2. Spark RPC框架源码分析(二)RPC运行时序

    前情提要: Spark RPC框架源码分析(一)简述 一. Spark RPC概述 上一篇我们已经说明了Spark RPC框架的一个简单例子,Spark RPC相关的两个编程模型,Actor模型和Re ...

  3. Spark RPC框架源码分析(三)Spark心跳机制分析

    一.Spark心跳概述 前面两节中介绍了Spark RPC的基本知识,以及深入剖析了Spark RPC中一些源码的实现流程. 具体可以看这里: Spark RPC框架源码分析(二)运行时序 Spark ...

  4. Thrift笔记(三)--Thrift框架通信源码分析

    Thrift 客户端调用RPC的Demo public static void main(String[] args) throws Exception { TTransport transport ...

  5. 【原】Spark中Master源码分析(一)

    Master作为集群的Manager,对于集群的健壮运行发挥着十分重要的作用.下面,我们一起了解一下Master是听从Client(Leader)的号召,如何管理好Worker的吧. 1.家当(静态属 ...

  6. 【原】Spark中Client源码分析(二)

    继续前一篇的内容.前一篇内容为: Spark中Client源码分析(一)http://www.cnblogs.com/yourarebest/p/5313006.html DriverClient中的 ...

  7. 【原】Spark中Master源码分析(二)

    继续上一篇的内容.上一篇的内容为: Spark中Master源码分析(一) http://www.cnblogs.com/yourarebest/p/5312965.html 4.receive方法, ...

  8. 【原】 Spark中Worker源码分析(二)

    继续前一篇的内容.前一篇内容为: Spark中Worker源码分析(一)http://www.cnblogs.com/yourarebest/p/5300202.html 4.receive方法, r ...

  9. Spark Scheduler模块源码分析之TaskScheduler和SchedulerBackend

    本文是Scheduler模块源码分析的第二篇,第一篇Spark Scheduler模块源码分析之DAGScheduler主要分析了DAGScheduler.本文接下来结合Spark-1.6.0的源码继 ...

随机推荐

  1. 读书计划——javascript dom 编程艺术(一)

    用脑图把基础体系再捋清楚一边.

  2. PHPCMS如何实现后台访问限制?

    修改phpcms 后台管理路径,可以有效的防止因为程序漏洞,或者是服务器安全问题所带来的 phpcms系统管理权限被黑客获取 文件路径:/caches/config/system.php 修改:'ad ...

  3. Python 基础篇:编码、变量、模块

    1. 编码 python解释器在加载 .py 文件中的代码时,会对内容进行编码(默认ASCII). 2. 变量 变量定义的规则: 变量名只能是 字母.数字或下划线的任意组合 变量名的第一个字符不能是数 ...

  4. pymssql 安装测试

    平台 : windows 7 32位 数据库 : SQLSERVER 2008 python 2.7  & pymssql模块 数据库和python 等模块安装说明省略 以下贴出测试代码: 单 ...

  5. 2016032701 - ubuntu安装jdk

    参考地址:http://jingyan.baidu.com/article/d621e8da0e92052865913f32.html 1.首先需要去oracle官网去下载jdk1.8,我本人下载的是 ...

  6. IIS修改队列长度

    Internet Information Services (IIS) 限制了在任何给定时间可在队列中等待的应用程序池请求的最大数量.如果达到此限制,则所有新请求都将被拒绝,而且用户将收到错误消息“5 ...

  7. ElasticSearch入门-搜索如此简单

    搜索引擎我也不是很熟悉,但是数据库还是比较了解.可以把搜索理解为数据库的like功能的替代品.因为like有以下几点不足: 第一.like的效率不行,在使用like时,一般都用不到索引,除非使用前缀匹 ...

  8. jna 使用实例,

    有与项目组需要用到C++的一个模块, 需要将一个2维数组传到dll 里面 ,返回一个字符串, 恶心了1天终于完成了, 记录一下,同时也希望能给你带来帮助. java 代码如下, package tes ...

  9. yum和rpm命令详解

    rpm,全称RPM Package Manager,是RedHat发布的,针对特定硬件,已经编译好的软件包.安装之后就可以使用,不需要自行编译,以及之前对软件和硬件的检测,目录的配置等动作. yum, ...

  10. VC常用数据类型使用转换

    我们先定义一些常见类型变量借以说明 int i = 100; long l = 2001; float f=300.2; double d=12345.119; char username[]=&qu ...