distribute by在spark中的一些应用
一.在二次排序当中的应用
1.1
说到排序当然第一想到的就是sort by和order by这两者的区别,也分情况。
在算子当中,两者没有区别,orderby()调用的也是sort。order by就是sort的别名。
/**
* Returns a new Dataset sorted by the given expressions.
* This is an alias of the `sort` function.
*
* @group typedrel
* @since 2.0.0
*/
@scala.annotation.varargs
def orderBy(sortExprs: Column*): Dataset[T] = sort(sortExprs : _*)
在spark sql语句中,则关系到是否全局排序。
https://spark.apache.org/docs/3.0.0/sql-ref-syntax-qry-select-orderby.html
The ORDER BY clause is used to return the result rows in a sorted manner in the user specified order. Unlike the SORT BY clause, this clause guarantees a total order in the output
ORDER BY子句用于按照用户指定的顺序以排序的方式返回结果行。与SORT BY子句不同,该子句保证输出中的总顺序
1.2
如果只想针对一个字段的排序时,这些貌似都没有问题。
但是如果想针对多个字段进行二次排序,三次排序呢?
select col1,col2 from table order by name,time
针对以上语句,我想根据名称以及时间进行排序,在一个spark 集群里运行并没有得到预期的值。
为什么order by在一个分布式计算里针对两个以上的字段进行排序达不到预期的效果呢?我觉得是因为,不同的name数据行分布在不同的节点或者分区上,order by只能保证各分区内的效果。查看结果也确实是,不同的name有一段有一个顺序的时间值,然后变成了另一个name,过一会儿,也跳会了原来的name区别。
结果就不贴出来了。
网上有过一些二次排序的方案,个人觉得使用distribute最简单。
DISTRIBUTE BY子句用于根据输入表达式对数据进行重新分区。
针对上面的order by在分布式环境下不能全局二次排序的情况,DISTRIBUTE BY可完美解决,因为它的作用就是针对某一字段,把相同的数据划分到同一分区。
然后数据在同一个分区了,那么再使用order by 或者sort by进行排序,二次三次排序都没有问题。
以下sql语句先对同name的划分到同一分区,然后针对name,time进行排序,可以得到预期效果。
select col1,col2 from table distribute name order by name time
二.
distribute by解决mappartition的迭代器里OOM的问题
2.1考虑一个业务场景。
有一个车辆数据,每天需要计算每个车的统计数据。很笼统。大概就是spark在凌晨读取前一天数据,然后按车辆ID分组进行计算。
第一想到的多半是group by id,然后在一个mapprittion接收一个迭代器进行循环处理。
dsInit.groupByKey(new MapFunction<DataSourceModel, String>() {
@Override
public String call(DataSourceModel dataSourceModel) throws Exception {
return dataSourceModel.getVin();
}
}, Encoders.STRING())
.flatMapGroups(new FlatMapGroupsFunction<String, DataSourceModel, Result>() {
@Override
public Iterator<Result> call(String key, Iterator<DataSourceModel> iterator) throws Exception {
//iterator迭代处理
}
但这样的风险很明显,就是OOM的风险。spark等大数据框架最大的特点就在于管道处理。不怕处理的数据量大,也不怕服务器资源少(满足最低配置),可以一点一点处理,再汇总,内存放不下就落磁盘。但mappartition的iterator相当于就是把当前分区的数据全部加载到内存当中来处理,如果当前分区数据量过大,那么OOM就是必然的。
2.2 如果当前分区数据量过大,可以使用其它方案。
2.2.1
使用DISTRIBUTE BY将数据按字段进行分区,通过2.1我们已经能够确认这一点。
在这基础上,再进行mappartition,同样是接收到一个iterator进行处理,没有OOM风险。
经实证,同样的数据,使用group by加FlatMapGroupsFunction直接OOM,
使用
select col1,col2 from table DISTRIBUTE BY id sort by id,time....
得到一个dataset,再进行MapGroupsFunctiont可有效避免OOM风险。
2.2.2
这里还涉及到一个mappartion真的比map效率高吗
https://blog.csdn.net/weixin_29531897/article/details/114732360
这篇文章作者经过测试,mappartion并不一定效率高,而且有OOM风险。
在文章里也提到另一个解决方案。
大概是利用scala的iterator进行map.
def mapFunc[T, U](iterator: Iterator[T], f2: T => (U)) = { iterator.map(x => { f2(x) }) }
或者直接在mapprition里的iterator进行iterator.map(x => { //业务逻辑处理 })
很遗憾,经测试,同样的上述的数据集,这两种方法都直接OOM。并没有达到文章里说的效果。
2.2.3
在一些特定的业务场景下可以使用reduceGroups
相当于rdd的reduce,两两处理,最终得到一条结果。
reduceGroups(new ReduceFunction<ChargeIteratorMap>() {
@Override
public ChargeIteratorMap call(ChargeIteratorMap v1, ChargeIteratorMap v2) throws Exception {
return service(v1, v2);
}
})
如上述业务场景,可先分组并进行排序,再使用reduceGroups当前数据与前一条数据进行计算累加计算,并把临时结果通过java bean或者case class或者第三方流水保存。
注意:reduceGroups在只有一条数据的时候不执行。
参考:
https://spark.apache.org/docs/3.0.0/sql-ref-syntax-qry-select-distribute-by.html
distribute by在spark中的一些应用的更多相关文章
- Spark中常用工具类Utils的简明介绍
<深入理解Spark:核心思想与源码分析>一书前言的内容请看链接<深入理解SPARK:核心思想与源码分析>一书正式出版上市 <深入理解Spark:核心思想与源码分析> ...
- SPARK 中 DriverMemory和ExecutorMemory
spark中,不论spark-shell还是spark-submit,都可以设置memory大小,但是有的同学会发现有两个memory可以设置.分别是driver memory 和executor m ...
- Scala 深入浅出实战经典 第65讲:Scala中隐式转换内幕揭秘、最佳实践及其在Spark中的应用源码解析
王家林亲授<DT大数据梦工厂>大数据实战视频 Scala 深入浅出实战经典(1-87讲)完整视频.PPT.代码下载:百度云盘:http://pan.baidu.com/s/1c0noOt6 ...
- Scala 深入浅出实战经典 第61讲:Scala中隐式参数与隐式转换的联合使用实战详解及其在Spark中的应用源码解析
王家林亲授<DT大数据梦工厂>大数据实战视频 Scala 深入浅出实战经典(1-87讲)完整视频.PPT.代码下载: 百度云盘:http://pan.baidu.com/s/1c0noOt ...
- Scala 深入浅出实战经典 第60讲:Scala中隐式参数实战详解以及在Spark中的应用源码解析
王家林亲授<DT大数据梦工厂>大数据实战视频 Scala 深入浅出实战经典(1-87讲)完整视频.PPT.代码下载:百度云盘:http://pan.baidu.com/s/1c0noOt6 ...
- Scala 深入浅出实战经典 第51讲:Scala中链式调用风格的实现代码实战及其在Spark中应用
王家林亲授<DT大数据梦工厂>大数据实战视频 Scala 深入浅出实战经典(1-64讲)完整视频.PPT.代码下载:百度云盘:http://pan.baidu.com/s/1c0noOt6 ...
- Scala 深入浅出实战经典 第48讲:Scala类型约束代码实战及其在Spark中的应用源码解析
王家林亲授<DT大数据梦工厂>大数据实战视频 Scala 深入浅出实战经典(1-64讲)完整视频.PPT.代码下载:百度云盘:http://pan.baidu.com/s/1c0noOt6 ...
- Scala 深入浅出实战经典 第47讲:Scala多重界定代码实战及其在Spark中的应用
王家林亲授<DT大数据梦工厂>大数据实战视频 Scala 深入浅出实战经典(1-64讲)完整视频.PPT.代码下载:百度云盘:http://pan.baidu.com/s/1c0noOt6 ...
- Scala 深入浅出实战经典 第42讲:scala 泛型类,泛型函数,泛型在spark中的广泛应用
王家林亲授<DT大数据梦工厂>大数据实战视频 Scala 深入浅出实战经典(1-64讲)完整视频.PPT.代码下载:百度云盘:http://pan.baidu.com/s/1c0noOt6 ...
- Spark中的编程模型
1. Spark中的基本概念 Application:基于Spark的用户程序,包含了一个driver program和集群中多个executor. Driver Program:运行Applicat ...
随机推荐
- 你的梦想家居「GitHub 热点速览」
上周推荐的 ChatGPT 版小爱,不知道有哪些小伙伴回去尝试接入了呢?本周依旧由 2 个不错的 ChatGPT 延伸项目,一个是比 DeepL.Grammarly 更懂你的划词翻译 openai-t ...
- 文件的上传&预览&下载学习(四)
0.参考博客 https://blog.csdn.net/Chengzi_comm/article/details/53037967 逻辑清晰 https://blog.csdn.net/alli09 ...
- iText5实现Java生成PDF
参考代码:https://github.com/youcong1996/study_simple_demo 参考博客:https://blog.csdn.net/weixin_37848710/art ...
- markdown空格缩进以及HTML空格实体
参考链接:https://www.jianshu.com/p/31eade263e7a https://www.cnblogs.com/naixil/p/13193364.html
- 第六章 C控制语句:分支和跳转
6.1if语句 程序 #define _CRT_SECURE_NO_WARNINGS 1 //coladays.c -- 求出温度低于零度的天数 #include<stdio.h> int ...
- WPF监听快捷键的几种方式
调用Win32 API(优先级最高,全局监听, 支持最小化失焦等情况) 那么,假如我要在一个WPF程序监听CTRL+5按键,首先在主窗口程序添加以下代码: /// <summary> // ...
- 【译】使用 ChatGPT 和 Azure Cosmos DB 构建智能应用程序
原文 | Mark Brown 翻译 | 郑子铭 随着对智能应用程序的需求不断增长,开发人员越来越多地转向人工智能(AI)和机器学习(ML),以增强其应用程序的功能.聊天机器人已经成为提供对话式人工智 ...
- eval有时候也可以用,而且有奇效
eval,一个我曾经避之不及的函数,最近我对它产生了一点新的感触:eval有时候也可以用,有奇效. 一般在使用js进行开发时,是不建议使用eval这类函数的.在JavaScript中,eval可以计算 ...
- grub 命令使用
命令列表 ubuntu 的 iso 盘内一般有 command.lst 这个文件,里面是 grub 支持的命令 加载字体 ( 方便中文显示 ) grub> loadfont $prefix/fo ...
- windows下使用docker安装hyperf
https://blog.csdn.net/weixin_39398904/article/details/128469190 http://wiki.fengfengphp.com/zh-cn/ba ...