Spark算子代码实践
Spark
一.coalesce
1.简介
coalesce常用来合并分区,第二个参数是合并分区时是否产生shuffle。true为产生shuffle,false为不产生shuffle。默认是false不产生shuffle。如果coalesce设置的分区数比原来的分区数还大的话若设置为false则不起作用。如果设置为true则效果等价于repartition。即repartition(numPartitions) = coalesce(numPartitions)。
2.测试数据
val array = Array("spark,scala,6", "hadoop,java,12", "tensorflow,python,8", "solr,java,16", "hbase,java,11")
3.代码
/**
* coalesce算子,常用于减少分区
*/
val befParNum = rdd.getNumPartitions
rdd = rdd.coalesce(1, false) // true为产生shuffle
val coalParNum = rdd.getNumPartitions
/**
* repartition与之类型,一般增大分区数
*/
rdd = rdd.repartition(3)
val reParNum = rdd.getNumPartitions
println("初始分区数:" + befParNum + ",coalesce分区后:" + coalParNum + ",repartition分区后:" + reParNum)
4.结果
初始分区数:2,coalesce分区后:1,repartition分区后:3
二.zip,zipWithIndex
1.简介
zip将两个RDD中的元素变成一个KV格式的RDD,两个RDD的每个分区元素个数必须相同。zipWithIndex该函数将RDD中的元素和这个元素在RDD中的索引下标【从0开始】组合成【K,V】键值对。
2.测试数据
val zip_array_left = Array(1,2,5,6,7,5,3,1)
val zip_array_left_2 = Array(1,2,5,6,7,8,9,0)
val zip_array_right = Array("spark", "scala", "hive", "hbase", "python", "hive", "hbase", "hbase")
3.代码
/**
* zip
*/
//to rdd
val zip_left = sc.parallelize(zip_array_left)
val zip_left_2 = sc.parallelize(zip_array_left_2)
val zip_right = sc.parallelize(zip_array_right) //zip
val zip = zip_left.zip(zip_right)
zip.foreach(println)
println("------------------") val zip_2 = zip_left_2.zip(zip_right)
/**
* zipWithIndex
*/
val zip_index = zip.zipWithIndex()
zip_index.foreach(println)
4.结果
(1,spark)
(2,scala)
(5,hive)
(6,hbase)
(7,python)
(5,hive)
(3,hbase)
(1,hbase)
------------------
((1,spark),0)
((7,python),4)
((2,scala),1)
((5,hive),2)
((5,hive),5)
((6,hbase),3)
((3,hbase),6)
((1,hbase),7)
三.countByKey,countByValue
1.简介
countByKey作用在K,V格式的RDD之上,统计相同key的个数。countByValue作用在K,V格式的RDD之上,统计相同value的个数。
2.测试数据
同上
3.代码
/**
* countByKey
*/
val zip_key = zip.countByKey()
zip_key.foreach(println)
println("------------------")
/**
* countByValue
*/
val zip_value = zip.countByValue()
zip_value.foreach(println)
4.结果
(5,2)
(1,2)
(6,1)
(2,1)
(7,1)
(3,1)
------------------
((7,python),1)
((1,spark),1)
((2,scala),1)
((1,hbase),1)
((3,hbase),1)
((6,hbase),1)
((5,hive),2)
四.cogroup
1.简介
cogroup 对两个内部数据结构为元组(仅有两个元素的元组)的数据进行匹配,把匹配上的value值保存到一个元组中。
2.测试数据
同上
3.代码
zip.cogroup(zip_2).foreach(println)
4.结果
(0,(CompactBuffer(),CompactBuffer(hbase)))
(1,(CompactBuffer(spark, hbase),CompactBuffer(spark)))
(7,(CompactBuffer(python),CompactBuffer(python)))
(3,(CompactBuffer(hbase),CompactBuffer()))
(6,(CompactBuffer(hbase),CompactBuffer(hbase)))
(9,(CompactBuffer(),CompactBuffer(hbase)))
(8,(CompactBuffer(),CompactBuffer(hive)))
(5,(CompactBuffer(hive, hive),CompactBuffer(hive)))
(2,(CompactBuffer(scala),CompactBuffer(scala)))
五.flatten
1.简介
把多层集合数据展开成一个集合。
2.测试数据
val sourceDate = Array("zhen@zhen01/2018-09-04_18;57;02_SOURCE",
"zhen@zhen02/2018-09-05_11;37;11_SOURCE","zhen@zhen03/2018-09-06_11;37;11_TEST")
val resultDate = Array("zhen@zhen01/2018-09-04_18;57","zhen@zhen02/2018-09-05_11;37",
"zhen@zhen03/2018-09-06_11;37")
3.代码
val seq = Seq(sourceDate, resultDate)
seq.flatten.foreach(println)
4.结果
zhen@zhen01/2018-09-04_18;57;02_SOURCE
zhen@zhen02/2018-09-05_11;37;11_SOURCE
zhen@zhen03/2018-09-06_11;37;11_TEST
zhen@zhen01/2018-09-04_18;57
zhen@zhen02/2018-09-05_11;37
zhen@zhen03/2018-09-06_11;37
Spark算子代码实践的更多相关文章
- UserView--第二种方式(避免第一种方式Set饱和),基于Spark算子的java代码实现
UserView--第二种方式(避免第一种方式Set饱和),基于Spark算子的java代码实现 测试数据 java代码 package com.hzf.spark.study; import ...
- UserView--第一种方式set去重,基于Spark算子的java代码实现
UserView--第一种方式set去重,基于Spark算子的java代码实现 测试数据 java代码 package com.hzf.spark.study; import java.util.Ha ...
- Spark—RDD编程常用转换算子代码实例
Spark-RDD编程常用转换算子代码实例 Spark rdd 常用 Transformation 实例: 1.def map[U: ClassTag](f: T => U): RDD[U] ...
- 【Spark算子】:reduceByKey、groupByKey和combineByKey
在spark中,reduceByKey.groupByKey和combineByKey这三种算子用的较多,结合使用过程中的体会简单总结: 我的代码实践:https://github.com/wwcom ...
- 我的Spark SQL单元测试实践
最近加入一个Spark项目,作为临时的开发人员协助进行开发工作.该项目中不存在测试的概念,开发人员按需求进行编码工作后,直接向生产系统部署,再由需求的提出者在生产系统检验程序运行结果的正确性.在这种原 ...
- Spark算子---实战应用
Spark算子实战应用 数据集 :http://grouplens.org/datasets/movielens/ MovieLens 1M Datase 相关数据文件 : users.dat --- ...
- ReactiveCocoa代码实践之-更多思考
三.ReactiveCocoa代码实践之-更多思考 1. RACObserve()宏形参写法的区别 之前写代码考虑过 RACObserve(self.timeLabel , text) 和 RACOb ...
- ReactiveCocoa代码实践之-RAC网络请求重构
前言 RAC相比以往的开发模式主要有以下优点:提供了统一的消息传递机制:提供了多种奇妙且高效的信号操作方法:配合MVVM设计模式和RAC宏绑定减少多端依赖. RAC的理论知识非常深厚,包含有FRP,高 ...
- (转)Spark 算子系列文章
http://lxw1234.com/archives/2015/07/363.htm Spark算子:RDD基本转换操作(1)–map.flagMap.distinct Spark算子:RDD创建操 ...
随机推荐
- C++版 - 剑指offer 面试题7:用两个栈实现队列 题解
用两个栈实现队列 提交网址: http://www.nowcoder.com/practice/54275ddae22f475981afa2244dd448c6?tpId=13&tqId=1 ...
- Go Web:处理请求
处理请求 Request和Response http Requset和Response的内容包括以下几项: Request or response line Zero or more headers ...
- Python 通过 SMTP 发送邮件
Python版本:Python3.5.2 简介 SMTP是发送邮件的协议,Python 内置对 SMTP 的支持,可以发送纯文本邮件.HTML 邮件以及带附件的邮件. Python 对 SMTP 支持 ...
- 机器学习笔记(5) KNN算法
这篇其实应该作为机器学习的第一篇笔记的,但是在刚开始学习的时候,我还没有用博客记录笔记的打算.所以也就想到哪写到哪了. 你在网上搜索机器学习系列文章的话,大部分都是以KNN(k nearest nei ...
- TensorFlow.js入门(一)一维向量的学习
TensorFlow的介绍 TensorFlow是谷歌基于DistBelief进行研发的第二代人工智能学习系统,其命名来源于本身的运行原理.Tensor(张量)意味着N维数组,Flow(流)意味着 ...
- sql语句求百分比
此sql语句包括了两个聚合函数做除法求百分比,并保留两位小数,直接输出字符串形式的百分比.以及对case when在聚合函数的应用. SELECT ss.SS_NAME,SS_ID, COUNT(ea ...
- [PHP] 算法-将一个字符串转换成一个整数的PHP实现
题目描述 将一个字符串转换成一个整数(实现Integer.valueOf(string)的功能,但是string不符合数字要求时返回0),要求不能使用字符串转换整数的库函数. 数值为0或者字符串不是一 ...
- [angularjs] angularjs系列笔记(八)事件
AngularJs有自己的HTML事件 ng-click指令 ng-click指令定义了AngularJs点击事件 当点击按钮的时候,赋值count变量并且给count变量加1,显示出count变量 ...
- Java高并发 -- 线程池
Java高并发 -- 线程池 主要是学习慕课网实战视频<Java并发编程入门与高并发面试>的笔记 在使用线程池后,创建线程变成了从线程池里获得空闲线程,关闭线程变成了将线程归坏给线程池. ...
- MySQL技巧(一)
NOT IN 与 IN 假设我们又一张score表如下 我们需要查询所有不是性别代号为"0"的学生数据 ); 很明显,not in 就是排除的意思. exists 与 not ex ...