在介绍sparkSQL之前。我们首先来看看,传统的关系型数据库是怎么执行的。当我们提交了一个非常easy的查询:
SELECT  a1,a2,a3  FROM  tableA  Where  condition 



能够看得出来,该语句是由Projection(a1,a2,a3)、Data Source(tableA)、Filter(condition)组成。分别相应sql查询过程中的Result、Data Source、Operation,也就是说SQL语句按Result-->Data Source-->Operation的次序来描写叙述的。

那么,SQL语句在实际的执行过程中是怎么处理的呢?一般的数据库系统先将读入的SQL语句(Query)先进行解析(Parse)。分辨出SQL语句中哪些词是关键词(如SELECT、FROM、WHERE),哪些是表达式、哪些是Projection、哪些是Data
Source等等。这一步就能够推断SQL语句是否规范,不规范就报错,规范就继续下一步过程绑定(Bind),这个过程将SQL语句和数据库的数据字典(列、表、视图等等)进行绑定,假设相关的Projection、Data Source等等都是存在的话,就表示这个SQL语句是能够运行的;而在运行前,一般的数据库会提供几个运行计划,这些计划一般都有运行统计数据。数据库会在这些计划中选择一个最优计划(Optimize)。终于运行该计划(Execute)。并返回结果。当然在实际的运行过程中。是按Operation-->Data
Source-->Result的次序来进行的。和SQL语句的次序刚好相反。在执行过程有时候甚至不须要读取物理表就能够返回结果,比方又一次执行刚执行过的SQL语句,可能直接从数据库的缓冲池中获取返回结果。

      以上过程看上去非常easy,但实际上会包括非常多复杂的操作细节在里面。而这些操作细节都和Tree有关。在数据库解析(Parse)SQL语句的时候,会将SQL语句转换成一个树型结构来进行处理,如以下一个查询,会形成一个含有多个节点(TreeNode)的Tree。然后在兴许的处理过程中对该Tree进行一系列的操作。

下图给出了对Tree的一些可能的操作细节,对于Tree的处理过程中所涉及很多其它的细节,能够查看相关的数据库论文。


OK,上面简介了关系型数据库的执行过程。那么,sparkSQL是不是也採用类似的方式处理呢?答案是肯定的。

以下我们先来看看sparkSQL中的两个重要概念Tree和Rule、然后再介绍一下sparkSQL的两个分支sqlContext和hiveContext、最后再综合看看sparkSQL的优化器Catalyst。


1:Tree和Rule
      sparkSQL对SQL语句的处理和关系型数据库对SQL语句的处理採用了类似的方法,首先会将SQL语句进行解析(Parse)。然后形成一个Tree。在兴许的如绑定、优化等处理过程都是对Tree的操作,而操作的方法是採用Rule。通过模式匹配。对不同类型的节点採用不同的操作。
A:Tree
  • Tree的相关代码定义在sql/catalyst/src/main/scala/org/apache/spark/sql/catalyst/trees
  • Logical Plans、Expressions、Physical Operators都能够使用Tree表示
  • Tree的详细操作是通过TreeNode来实现的
    • sparkSQL定义了catalyst.trees的日志,通过这个日志能够形象的表示出树的结构
    • TreeNode能够使用scala的集合操作方法(如foreach, map, flatMap, collect等)进行操作
    • 有了TreeNode,通过Tree中各个TreeNode之间的关系,能够对Tree进行遍历操作,如使用transformDown、transformUp将Rule应用到给定的树段,然后用结果替代旧的树段;也能够使用transformChildrenDown、transformChildrenUp对一个给定的节点进行操作,通过迭代将Rule应用到该节点以及子节点。

  • TreeNode能够细分成三种类型的Node:

    • UnaryNode 一元节点。即仅仅有一个子节点。如Limit、Filter操作
    • BinaryNode 二元节点。即有左右子节点的二叉节点。如Jion、Union操作
    • LeafNode 叶子节点,没有子节点的节点。主要用户命令类操作。如SetCommand

B:Rule
  • Rule的相关代码定义在sql/catalyst/src/main/scala/org/apache/spark/sql/catalyst/rules
  • Rule在sparkSQL的Analyzer、Optimizer、SparkPlan等各个组件中都有应用到
  • Rule是一个抽象类。详细的Rule实现是通过RuleExecutor完毕
  • Rule通过定义batch和batchs,能够简便的、模块化地对Tree进行transform操作
  • Rule通过定义Once和FixedPoint。能够对Tree进行一次操作或多次操作(如对某些Tree进行多次迭代操作的时候。达到FixedPoint次数迭代或达到前后两次的树结构没变化才停止操作,详细參看RuleExecutor.apply)

watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvYm9va19tbWlja3k=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast" alt="">

      拿个简单的样例,在处理由解析器(SqlParse)生成的LogicPlan Tree的时候,在Analyzer中就定义了多种Rules应用到LogicPlan Tree上。
      应用示意图:


Analyzer中使用的Rules,定义了batches,由多个batch构成。如MultiInstanceRelations、Resolution、Check Analysis、AnalysisOperators等构成。每一个batch又有不同的rule构成。如Resolution由ResolveReferences 、ResolveRelations、ResolveSortReferences 、NewRelationInstances等构成;每一个rule又有自己相相应的处理函数。能够详细參看Analyzer中的ResolveReferences
、ResolveRelations、ResolveSortReferences 、NewRelationInstances函数;同一时候要注意的是,不同的rule应用次数是不同的:如CaseInsensitiveAttributeReferences这个batch中rule仅仅应用了一次(Once),而Resolution这个batch中的rule应用了多次(fixedPoint = FixedPoint(100),也就是说最多应用100次。除非前后迭代结果一致退出)。


在整个sql语句的处理过程中,Tree和Rule相互配合。完毕了解析、绑定(在sparkSQL中称为Analysis)、优化、物理计划等过程,终于生成能够运行的物理计划。
知道了sparkSQL的各个过程的基本处理方式。以下来看看sparkSQL的执行过程。

sparkSQL有两个分支,sqlContext和hivecontext,sqlContext如今仅仅支持sql语法解析器(SQL-92语法)。hiveContext如今支持sql语法解析器和hivesql语法解析器。默觉得hivesql语法解析器,用户能够通过配置切换成sql语法解析器,来执行hiveql不支持的语法,如select 1。关于sqlContext和hiveContext的详细应用请參看第六部分。


2:sqlContext的执行过程
      sqlContext是使用sqlContext.sql(sqlText)来提交用户sql语句:
/**源自sql/core/src/main/scala/org/apache/spark/sql/SQLContext.scala  */
def sql(sqlText: String): SchemaRDD = {
if (dialect == "sql") {
new SchemaRDD(this, parseSql(sqlText)) //parseSql(sqlText)对sql语句进行语法解析
} else {
sys.error(s"Unsupported SQL dialect: $dialect")
}
}

sqlContext.sql的返回结果是SchemaRDD。调用了new
SchemaRDD(this, parseSql(sqlText)) 来对sql语句进行处理。处理之前先使用catalyst.SqlParser对sql语句进行语法解析,使之生成Unresolved LogicalPlan。

/**源自sql/core/src/main/scala/org/apache/spark/sql/SQLContext.scala  */
protected[sql] val parser = new catalyst.SqlParser
protected[sql] def parseSql(sql: String): LogicalPlan = parser(sql)

类SchemaRDD继承自SchemaRDDLike


/**源自sql/core/src/main/scala/org/apache/spark/sql/SchemaRDD.scala  */
class SchemaRDD(
@transient val sqlContext: SQLContext,
@transient val baseLogicalPlan: LogicalPlan)
extends RDD[Row](sqlContext.sparkContext, Nil) with SchemaRDDLike

SchemaRDDLike中调用sqlContext.executePlan(baseLogicalPlan)来运行catalyst.SqlParser解析后生成Unresolved LogicalPlan,这里的baseLogicalPlan就是指Unresolved
LogicalPlan。

/**源自sql/core/src/main/scala/org/apache/spark/sql/SchemaRDDLike.scala  */
private[sql] trait SchemaRDDLike {
@transient val sqlContext: SQLContext
@transient val baseLogicalPlan: LogicalPlan
private[sql] def baseSchemaRDD: SchemaRDD lazy val queryExecution = sqlContext.executePlan(baseLogicalPlan)
sqlContext.executePlan做了什么呢?它调用了QueryExecution类
/**源自sql/core/src/main/scala/org/apache/spark/sql/SQLContext.scala  */
protected[sql] def executePlan(plan: LogicalPlan): this.QueryExecution =
new this.QueryExecution { val logical = plan }
QueryExecution类的定义:
/**源自sql/core/src/main/scala/org/apache/spark/sql/SQLContext.scala  */
protected abstract class QueryExecution {
def logical: LogicalPlan //对Unresolved LogicalPlan进行analyzer。生成resolved LogicalPlan
lazy val analyzed = ExtractPythonUdfs(analyzer(logical))
//对resolved LogicalPlan进行optimizer,生成optimized LogicalPlan
lazy val optimizedPlan = optimizer(analyzed)
// 将optimized LogicalPlan转换成PhysicalPlan
lazy val sparkPlan = {
SparkPlan.currentContext.set(self)
planner(optimizedPlan).next()
}
// PhysicalPlan运行前的准备工作,生成可运行的物理计划
lazy val executedPlan: SparkPlan = prepareForExecution(sparkPlan) //运行可运行物理计划
lazy val toRdd: RDD[Row] = executedPlan.execute() ......
}

sqlContext总的一个步骤例如以下图所看到的:

  1. SQL语句经过SqlParse解析成UnresolvedLogicalPlan。
  2. 使用analyzer结合数据数据字典(catalog)进行绑定,生成resolvedLogicalPlan;
  3. 使用optimizer对resolvedLogicalPlan进行优化,生成optimizedLogicalPlan;
  4. 使用SparkPlan将LogicalPlan转换成PhysicalPlan。
  5. 使用prepareForExecution()将PhysicalPlan转换成可运行物理计划。
  6. 使用execute()运行可运行物理计划;
  7. 生成SchemaRDD。
在整个执行过程中涉及到多个sparkSQL的组件。如SqlParse、analyzer、optimizer、SparkPlan等等,其功能和实如今下一章节中具体解释。



3:hiveContext的执行过程
      在分布式系统中。因为历史原因,非常多数据已经定义了hive的元数据,通过这些hive元数据。sparkSQL使用hiveContext非常easy实现对这些数据的訪问。值得注意的是hiveContext继承自sqlContext,所以在hiveContext的的执行过程中除了override的函数和变量。能够使用和sqlContext一样的函数和变量。

      从sparkSQL1.1開始。hiveContext使用hiveContext.sql(sqlText)来提交用户sql语句进行查询:
/**源自sql/hive/src/main/scala/org/apache/spark/sql/hive/HiveContext.scala  */
override def sql(sqlText: String): SchemaRDD = {
// 使用spark.sql.dialect定义採用的语法解析器
if (dialect == "sql") {
super.sql(sqlText) //假设使用sql解析器。则使用sqlContext的sql方法
} else if (dialect == "hiveql") { //假设使用和hiveql解析器,则使用HiveQl.parseSql
new SchemaRDD(this, HiveQl.parseSql(sqlText))
} else {
sys.error(s"Unsupported SQL dialect: $dialect. Try 'sql' or 'hiveql'")
}
}

hiveContext.sql首先依据用户的语法设置(spark.sql.dialect)决定详细的运行过程,假设dialect == "sql"则採用sqlContext的sql语法运行过程;假设是dialect == "hiveql",则採用hiveql语法运行过程。在这里我们主要看看hiveql语法运行过程。能够看出,hiveContext.sql调用了new
SchemaRDD(this, HiveQl.parseSql(sqlText))对hiveql语句进行处理,处理之前先使用对语句进行语法解析。

/**源自src/main/scala/org/apache/spark/sql/hive/HiveQl.scala  */
/** Returns a LogicalPlan for a given HiveQL string. */
def parseSql(sql: String): LogicalPlan = {
try {
if (条件) {
//非hive命令的处理,如set、cache table、add jar等直接转化成command类型的LogicalPlan
.....
} else {
val tree = getAst(sql)
if (nativeCommands contains tree.getText) {
NativeCommand(sql)
} else {
nodeToPlan(tree) match {
case NativePlaceholder => NativeCommand(sql)
case other => other
}
}
}
} catch {
//异常处理
......
}
}

由于sparkSQL所支持的hiveql除了兼容hive语句外,还兼容一些sparkSQL本身的语句,所以在HiveQl.parseSql对hiveql语句语法解析的时候:

  • 首先考虑一些非hive语句的处理,这些命令属于sparkSQL本身的命令语句,如设置sparkSQL执行參数的set命令、cache table、add jar等,将这些语句转换成command类型的LogicalPlan;
  • 假设是hive语句,则调用getAst(sql)使用hive的ParseUtils将该语句先解析成AST树,然后依据AST树中的keyword进行转换:类似命令型的语句、DDL类型的语句转换成command类型的LogicalPlan;其它的转换通过nodeToPlan转换成LogicalPlan。
/**源自src/main/scala/org/apache/spark/sql/hive/HiveQl.scala  */
/** * Returns the AST for the given SQL string. */
def getAst(sql: String): ASTNode = ParseUtils.findRootNonNullToken((new ParseDriver).parse(sql))

和sqlContext一样。类SchemaRDD继承自SchemaRDDLike。SchemaRDDLike调用sqlContext.executePlan(baseLogicalPlan),只是hiveContext重写了executePlan()函数:

/**源自sql/hive/src/main/scala/org/apache/spark/sql/hive/HiveContext.scala  */
override protected[sql] def executePlan(plan: LogicalPlan): this.QueryExecution =
new this.QueryExecution { val logical = plan }

并使用了一个继承自sqlContext.QueryExecution的新的QueryExecution类:

/**源自sql/hive/src/main/scala/org/apache/spark/sql/hive/HiveContext.scala  */
protected[sql] abstract class QueryExecution extends super.QueryExecution {
// TODO: Create mixin for the analyzer instead of overriding things here.
override lazy val optimizedPlan =
optimizer(ExtractPythonUdfs(catalog.PreInsertionCasts(catalog.CreateTables(analyzed)))) override lazy val toRdd: RDD[Row] = executedPlan.execute().map(_.copy())
......
}
所以在hiveContext的执行过程基本和sqlContext一致。除了override的catalog、functionRegistry、analyzer、planner、optimizedPlan、toRdd。

hiveContext的catalog。是指向 Hive Metastore:
/**源自sql/hive/src/main/scala/org/apache/spark/sql/hive/HiveContext.scala  */
/* A catalyst metadata catalog that points to the Hive Metastore. */
@transient
override protected[sql] lazy val catalog = new HiveMetastoreCatalog(this) with OverrideCatalog {
override def lookupRelation(
databaseName: Option[String],
tableName: String,
alias: Option[String] = None): LogicalPlan = { LowerCaseSchema(super.lookupRelation(databaseName, tableName, alias))
}
}

hiveContext的analyzer。使用了新的catalog和functionRegistry:

/**源自sql/hive/src/main/scala/org/apache/spark/sql/hive/HiveContext.scala  */
/* An analyzer that uses the Hive metastore. */
@transient
override protected[sql] lazy val analyzer =
new Analyzer(catalog, functionRegistry, caseSensitive = false)
hiveContext的planner,使用新定义的hivePlanner:
/**源自sql/hive/src/main/scala/org/apache/spark/sql/hive/HiveContext.scala  */
@transient
override protected[sql] val planner = hivePlanner
所以hiveContext总的一个步骤例如以下图所看到的:
  1. SQL语句经过HiveQl.parseSql解析成Unresolved LogicalPlan,在这个解析过程中对hiveql语句使用getAst()获取AST树,然后再进行解析。
  2. 使用analyzer结合数据hive源数据Metastore(新的catalog)进行绑定。生成resolved LogicalPlan;
  3. 使用optimizer对resolved LogicalPlan进行优化,生成optimized LogicalPlan,优化前使用了ExtractPythonUdfs(catalog.PreInsertionCasts(catalog.CreateTables(analyzed)))进行预处理;
  4. 使用hivePlanner将LogicalPlan转换成PhysicalPlan;
  5. 使用prepareForExecution()将PhysicalPlan转换成可运行物理计划;
  6. 使用execute()运行可运行物理计划。
  7. 运行后,使用map(_.copy)将结果导入SchemaRDD。

hiveContxt还有非常多针对hive的特性,更细节的内容參看源代码。

watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvYm9va19tbWlja3k=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast" alt="">

4:catalyst优化器
      sparkSQL1.1整体上由四个模块组成:core、catalyst、hive、hive-Thriftserver:
  • core处理数据的输入输出,从不同的数据源获取数据(RDD、Parquet、json等),将查询结果输出成schemaRDD;
  • catalyst处理查询语句的整个处理过程,包含解析、绑定、优化、物理计划等,说其是优化器,还不如说是查询引擎;
  • hive对hive数据的处理
  • hive-ThriftServer提供CLI和JDBC/ODBC接口
      在这四个模块中,catalyst处于最核心的部分,其性能优劣将影响总体的性能。因为发展时间尚短,还有非常多不足的地方,但其插件式的设计。为未来的发展留下了非常大的空间。以下是catalyst的一个设计图:

watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvYm9va19tbWlja3k=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast" alt="">

 当中虚线部分是以后版本号要实现的功能,实线部分是已经实现的功能。

从上图看,catalyst基本的实现组件有:

  • sqlParse。完毕sql语句的语法解析功能,眼下仅仅提供了一个简单的sql解析器;
  • Analyzer,主要完毕绑定工作,将不同来源的Unresolved LogicalPlan和数据元数据(如hive metastore、Schema catalog)进行绑定。生成resolved LogicalPlan;
  • optimizer对resolved LogicalPlan进行优化,生成optimized LogicalPlan。
  • Planner将LogicalPlan转换成PhysicalPlan;
  • CostModel,主要依据过去的性能统计数据。选择最佳的物理运行计划
这些组件的基本实现方法:
  • 先将sql语句通过解析生成Tree,然后在不同阶段使用不同的Rule应用到Tree上。通过转换完毕各个组件的功能。
  • Analyzer使用Analysis Rules,配合数据元数据(如hive metastore、Schema catalog),完好Unresolved LogicalPlan的属性而转换成resolved LogicalPlan;
  • optimizer使用Optimization Rules,对resolved LogicalPlan进行合并、列裁剪、过滤器下推等优化作业而转换成optimized LogicalPlan。
  • Planner使用Planning Strategies,对optimized LogicalPlan
关于本篇中涉及到的相关概念和组件在下篇再具体介绍。

sparkSQL1.1入门之二:sparkSQL执行架构的更多相关文章

  1. Flink入门(二)——Flink架构介绍

    1.基本组件栈 了解Spark的朋友会发现Flink的架构和Spark是非常类似的,在整个软件架构体系中,同样遵循着分层的架构设计理念,在降低系统耦合度的同时,也为上层用户构建Flink应用提供了丰富 ...

  2. sparkSQL1.1入门之十:总结

    回想一下,在前面几章中,就sparkSQL1.1.0基本概念.执行架构.基本操作和有用工具做了基本介绍. 基本概念: SchemaRDD Rule Tree LogicPlan Parser Anal ...

  3. sparkSQL1.1入门

    http://blog.csdn.net/book_mmicky/article/details/39288715 2014年9月11日,Spark1.1.0忽然之间发布.笔者立即下载.编译.部署了S ...

  4. 无废话ExtJs 入门教程二十[数据交互:AJAX]

    无废话ExtJs 入门教程二十[数据交互:AJAX] extjs技术交流,欢迎加群(521711109) 1.代码如下: 1 <!DOCTYPE html PUBLIC "-//W3C ...

  5. Java入门(二)——果然断更的都是要受惩罚的。。。

    断更了一个多月,阅读量立马从100+跌落至10-,虽说不是很看重这个,毕竟只是当这个是自己的学习笔记,但有人看,有人评论,有人认同和批评的感觉还是很巴适的,尤其以前有过却又被剥夺的,惨兮兮的. 好好写 ...

  6. ReactJS入门学习二

    ReactJS入门学习二 阅读目录 React的背景和基本原理 理解React.render() 什么是JSX? 为什么要使用JSX? JSX的语法 如何在JSX中如何使用事件 如何在JSX中如何使用 ...

  7. RequireJS入门(二) 转

    上一篇是把整个jQuery库作为一个模块.这篇来写一个自己的模块:选择器. 为演示方便这里仅实现常用的三种选择器id,className,attribute.RequireJS使用define来定义模 ...

  8. E8.Net 工作流二次开发架构平台

    一.          产品简介 E8.Net工作流开发架构是基于微软.Net技术架构的工作流中间件产品,是国内商业流程管理(BPM)领域在.Net平台上的领先产品,是快速搭建流程管理解决方案的二次开 ...

  9. mongodb入门教程二

    title: mongodb入门教程二 date: 2016-04-07 10:33:02 tags: --- 上一篇文章说了mongodb最基本的东西,这边博文就在深入一点,说一下mongo的一些高 ...

随机推荐

  1. ExtJs4 学习3 combox自动加载的例子

    Ext.onReady(function() {   delivery_datas = [{ "Id" : "1", "Name" : &q ...

  2. wdcp-apache配置错误导致进程淤积进而内存吃紧

    内存总是越来越少,虚拟内存使用越来越多 首先确定到底是什么占用了大量的内存 可以看到,大部分内存被闲置的httpd进程占用 且当我重启mysql服务后,内存没有出现明显变化,但是当我重启apache时 ...

  3. Joomla插件汉化小程序

    这两天在搞joomla插件,在看peter的视频,在此谢过他了.看到它汉化插件那个视频.反正闲着无聊,就写了一个Java小程序,方便使用joomla的人汉化插件.这个程序的方法很简单,你只要先运行ou ...

  4. YII 创建后台模块

    1,在protected/config/main.php目录下修改如下目录 'modules'=>array( // uncomment the following to enable the ...

  5. delphi 2010 动态链接库DLL断点调试

    DELPHI 2010 动态链接库DLL断点调试 马根峰 (广东联合电子服务股份有限公司,广州 510300) 摘要:本文详细介绍了Delphi 2010中的动态链接库DLL断点调试技术 关键词:DE ...

  6. MSSQL中datetime与unix时间戳互转

    //ms sql datetime 转unix时间戳 SELECT DATEDIFF(s, '19700101',GETDATE()) //ms sql unix时间戳 转datetime 涉及到时区 ...

  7. temp 临时文件

    放假了,放假了:http://blog.csdn.net/skywalker_only/article/details/17076851 nucht2.2.1爆出如下异常: Exception in ...

  8. asp.net web api long running task

    http://stackoverflow.com/questions/17577016/long-running-task-in-webapi http://blog.stephencleary.co ...

  9. Ugly Windows

    poj3923:http://poj.org/problem?id=3923 题意:给出两个整数n.m表示屏幕的长宽.屏幕上有一些窗口,每个窗口都是矩形的,窗口的边框用同一个大写字母来表示,不同的窗口 ...

  10. SKYLINE

    uvalive4108:https://icpcarchive.ecs.baylor.edu/index.php?option=com_onlinejudge&Itemid=8&pag ...