Spark程序使用Scala进行单元测试
Spark程序使用Scala进行单元测试
原文作者:大葱拌豆腐
1、Rdd测试
spark程序一般从集群中读取数据然后通过rdd进行转换,这其中涉及到集群,每次修改bug,上传到集群再运行测试,代价还是挺大;所以尽可能先本地进行单元测试,以减少在集群上运行时错误,特别是map等各种tranforms动作的逻辑错误;以下示例用于测试本地返回rdd相关的方法(利用spark本地模式进行单元测试)。
//定义一个简单的wordcount
object WordCount extends Serializable{
def count(lines:RDD[String]): RDD[(String,Int)]={
val rdd=lines.flatMap(line=>line.split("\\s")).map(word=>(word,1)).reduceByKey(_ + _)
rdd
}
}
//引入scalatest建立一个单元测试类,混入特质BeforeAndAfter,在before和after中分别初始化sc和停止sc,
//初始化SparkContext时只需将Master设置为local(local[N],N表示线程)即可,无需本地配置或搭建集群,
class WordCountTests extends FlatSpec with BeforeAndAfter{
val master="local" //sparkcontext的运行master
var sc:SparkContext=_
it should("test success") in{
//其中参数为rdd或者dataframe可以通过通过简单的手动构造即可
val seq=Seq("the test test1","the test","the")
val rdd=sc.parallelize(seq)
val wordCounts=WordCount.count(rdd)
wordCounts.map(p=>{
p._1 match {
case "the"=>
assert(p._2==3)
case "test"=>
assert(p._2==2)
case "test1"=>
assert(p._2==1)
case _=>
None
}
}).foreach(_=>())
}
//这里before和after中分别进行sparkcontext的初始化和结束,如果是SQLContext也可以在这里面初始化
before{
val conf=new SparkConf()
.setAppName("test").setMaster(master)
sc=new SparkContext(conf)
}
after{
if(sc!=null){
sc.stop()
}
}
}
2、无返回值方法测试
有时候一个方法起到一个调用流程的作用,最后可能是输出或者写入某个文件而没有返回值,一般单元测试可能是查看最后有没有输出文件。
trait WriterHandle{
def writer(records:Seq[GenericRecord]):Unit={
val parquetWriter=...
records.foreach(parquetWriter.writer(..))
}
}
//一个类处混入这个特质,经过一定转换后将结果数据写入parquet中
class ProcessHandle(objects:Iterator[T]) extends Serializable with WriterHandle{
def process():Unit={
val records:Seq[GenericRecord]=build(objects)={
...
}
//这里调用了特质writer中的writer方法,实际单元测试运行到这里可能写入的时候会出错,不能正常测试通过
writer(records)
}
}
class Writertests extends FlatSpec {
it should("write success") in{
val objects=Seq(object1,object2..).toIterator
//在new处理类,混入原先特质的一个子特质
val process=new ProcessHandle(objects) with Writerhandletest
}
}
//可以自定义一个trait继承自原先的特质,通过将原先的方法覆盖,然后在重写后的方法里面的根据传入值定义所需要断言即可
trait Writerhandletest extends WriterHandle{
override def writer(records:Seq[GenericRecord]):Unit={
assert(records.length==N)
assert(records(0).XX=="xxx")
}
}
3、测试私有方法
理论上来说,私有方法都会被公有方法调用,调用公有方法也可以验证私有方法,不过如果公有方法不方便测试也可以对某个私有方法进行测试。
class MyTest(s:String){
//此公有方法可能不方便测试
def ():Unit={
...
doSth(s)
}
//这里私有方法,可能是逻辑关键所在,有必要测试
private def doSth(s:String):String={
...
}
}
//要混入PrivateMethodTester特质
class MytestTests extends FlatSpec with PrivateMethodTester{
it should("write success") in{
//首先new一个要测试的类
val myTest=new MyTest("string")
//其中通过PrivateMethod修饰,[]中为返回值, ('method)单引号后跟私有方法名
val dosth=PrivateMethod[String]('doSth)
//通过invokePrivate 委托调用私有方法,注意参数要对,貌似传null的话会找不到对应的方法
val str=myTest invokePrivate dosth("string")
//最后断言相应的至即可
asset(str=="string")
}
}
Spark程序使用Scala进行单元测试的更多相关文章
- Spark程序进行单元测试-使用scala
Spark 中进行一些单元测试技巧:最近刚写了一点Spark上的单元测试,大概整理了一些 rdd测试 spark程序一般从集群中读取数据然后通过rdd进行转换,这其中涉及到集群,每次修改bug,上传到 ...
- scala IDE for Eclipse开发Spark程序
1.开发环境准备 scala IDE for Eclipse:版本(4.6.1) 官网下载:http://scala-ide.org/download/sdk.html 百度云盘下载:链接:http: ...
- sbt打包Scala写的Spark程序,打包正常,提交运行时提示找不到对应的类
sbt打包Scala写的Spark程序,打包正常,提交运行时提示找不到对应的类 详述 使用sbt对写的Spark程序打包,过程中没有问题 spark-submit提交jar包运行提示找不到对应的类 解 ...
- 使用Scala编写Spark程序求基站下移动用户停留时长TopN
使用Scala编写Spark程序求基站下移动用户停留时长TopN 1. 需求:根据手机基站日志计算停留时长的TopN 我们的手机之所以能够实现移动通信,是因为在全国各地有许许多多的基站,只要手机一开机 ...
- 解惑:在Ubuntu18.04.2的idea上运行Scala支持的spark程序遇到的问题
解惑:在Ubuntu18.04.2的idea上运行Scala支持的spark程序遇到的问题 一.前言 最近在做一点小的实验,用到了Scala,spark这些东西,于是在Linux平台上来完成,结果一个 ...
- 如何在本地使用scala或python运行Spark程序
如何在本地使用scala或python运行Spark程序 包含两个部分: 本地scala语言编写程序,并编译打包成jar,在本地运行. 本地使用python语言编写程序,直接调用spark的接口, ...
- 在IntelliJ IDEA中创建和运行java/scala/spark程序
本文将分两部分来介绍如何在IntelliJ IDEA中运行Java/Scala/Spark程序: 基本概念介绍 在IntelliJ IDEA中创建和运行java/scala/spark程序 基本概念介 ...
- 如何运行Spark程序
[hxsyl@CentOSMaster spark-2.0.2-bin-hadoop2.6]# ./bin/spark-submit --class org.apache.spark.examples ...
- Spark系列—02 Spark程序牛刀小试
一.执行第一个Spark程序 1.执行程序 我们执行一下Spark自带的一个例子,利用蒙特·卡罗算法求PI: 启动Spark集群后,可以在集群的任何一台机器上执行一下命令: /home/spark/s ...
随机推荐
- python-scrapy框架爬取某瓣电视剧信息--异步加载页面
前期准备,首先要有python环境+scrapy环境+pycharm环境 一.建立爬虫所需的环境,在命令行输入: scrapy startproject doubantv #命名自定义就好 会生成一个 ...
- ADO.NET对SqlServer进行简单的增删改查
对数据库进行增删改查,首先想到的应该就是连接字符串了. 我们的连接字符串是由"Server=地址(本机=local);Database=数据库名称;User Id=登陆用户名;Passwor ...
- java13编程基础之数组深入
大纲一维数组概述数组是相同类型数据的有序集合.数组描述的是相同类型的若干个数据,按照一定的先后次序排列组合而成.其中,每一个数据称作一个元素,每个元素可以通过一个索引(下标)来访问它们. 这些按序排列 ...
- 使用docker制作Mysql镜像
一.过程说明 通过Dockerfile创建mysql镜像,使用的mysql软件包为mariadb二进制分发版,最终在宿主机启动mysql容器从而能在mysql容器外部访问mysql服务. 宿主机IP ...
- Logstash学习之路(一)Logstash的安装
一.Logstash简介 Logstash 是一个实时数据收集引擎,可收集各类型数据并对其进行分析,过滤和归纳.按照自己条件分析过滤出符合数据导入到可视化界面.它可以实现多样化的数据源数据全量或增量传 ...
- 在onelogin中使用OpenId Connect Implicit Flow
目录 简介 OpenId Implicit Flow 创建onelogin的配置 页面的运行和请求流程 关键代码 总结 简介 onelogin支持多种OpenId Connect的连接模式,上一篇文章 ...
- 日常ie兼容问题(持续整理)
1.关于new Date()格式为何要转成y/m/d格式 IE不会识别时间状态为"y-m-d"的形式,如果获取的new Date("2020-05-01") 那 ...
- windows端口占用
原文链接http://zhhll.icu/2020/04/08/windows/windows%E4%B9%8B%E7%AB%AF%E5%8F%A3%E5%8D%A0%E7%94%A8/ 1.查看当前 ...
- 【剑指 Offer】09.用两个栈实现队列
题目描述 用两个栈实现一个队列.队列的声明如下,请实现它的两个函数 appendTail 和 deleteHead , 分别完成在队列尾部插入整数和在队列头部删除整数的功能.(若队列中没有元素,del ...
- C++中的extern“C”
首先引入extern"C"的官方解释 extern "C" is meant to be recognized by a C++ compiler and to ...