Spark程序使用Scala进行单元测试
Spark程序使用Scala进行单元测试
原文作者:大葱拌豆腐
1、Rdd测试
spark程序一般从集群中读取数据然后通过rdd进行转换,这其中涉及到集群,每次修改bug,上传到集群再运行测试,代价还是挺大;所以尽可能先本地进行单元测试,以减少在集群上运行时错误,特别是map等各种tranforms动作的逻辑错误;以下示例用于测试本地返回rdd相关的方法(利用spark本地模式进行单元测试)。
//定义一个简单的wordcount
object WordCount extends Serializable{
  def count(lines:RDD[String]): RDD[(String,Int)]={
    val rdd=lines.flatMap(line=>line.split("\\s")).map(word=>(word,1)).reduceByKey(_ + _)
    rdd
  }
}
//引入scalatest建立一个单元测试类,混入特质BeforeAndAfter,在before和after中分别初始化sc和停止sc,
//初始化SparkContext时只需将Master设置为local(local[N],N表示线程)即可,无需本地配置或搭建集群,
class WordCountTests extends FlatSpec with BeforeAndAfter{
  val master="local" //sparkcontext的运行master
  var sc:SparkContext=_
  it should("test success") in{
   //其中参数为rdd或者dataframe可以通过通过简单的手动构造即可
    val seq=Seq("the test test1","the test","the")
    val rdd=sc.parallelize(seq)
    val wordCounts=WordCount.count(rdd)
    wordCounts.map(p=>{
       p._1 match {
         case "the"=>
           assert(p._2==3)
         case "test"=>
           assert(p._2==2)
         case "test1"=>
           assert(p._2==1)
         case _=>
           None
       }
    }).foreach(_=>())
  }
  //这里before和after中分别进行sparkcontext的初始化和结束,如果是SQLContext也可以在这里面初始化
  before{
    val conf=new SparkConf()
      .setAppName("test").setMaster(master)
    sc=new SparkContext(conf)
  }
  after{
    if(sc!=null){
      sc.stop()
    }
  }
}
2、无返回值方法测试
有时候一个方法起到一个调用流程的作用,最后可能是输出或者写入某个文件而没有返回值,一般单元测试可能是查看最后有没有输出文件。
trait WriterHandle{
   def writer(records:Seq[GenericRecord]):Unit={
     val parquetWriter=...
     records.foreach(parquetWriter.writer(..))
   }
}
//一个类处混入这个特质,经过一定转换后将结果数据写入parquet中
class ProcessHandle(objects:Iterator[T]) extends Serializable with WriterHandle{
  def process():Unit={
     val records:Seq[GenericRecord]=build(objects)={
        ...
     }
     //这里调用了特质writer中的writer方法,实际单元测试运行到这里可能写入的时候会出错,不能正常测试通过
     writer(records)
  }
}
class Writertests extends FlatSpec {
  it should("write success") in{
    val objects=Seq(object1,object2..).toIterator
    //在new处理类,混入原先特质的一个子特质
    val process=new ProcessHandle(objects) with Writerhandletest
  }
}
//可以自定义一个trait继承自原先的特质,通过将原先的方法覆盖,然后在重写后的方法里面的根据传入值定义所需要断言即可
trait Writerhandletest extends WriterHandle{
  override def writer(records:Seq[GenericRecord]):Unit={
     assert(records.length==N)
     assert(records(0).XX=="xxx")
   }
}
3、测试私有方法
理论上来说,私有方法都会被公有方法调用,调用公有方法也可以验证私有方法,不过如果公有方法不方便测试也可以对某个私有方法进行测试。
class  MyTest(s:String){
  //此公有方法可能不方便测试
  def ():Unit={
     ...
     doSth(s)
  }
  //这里私有方法,可能是逻辑关键所在,有必要测试
  private def doSth(s:String):String={
     ...
  }
}
//要混入PrivateMethodTester特质
class MytestTests extends FlatSpec with PrivateMethodTester{
  it should("write success") in{
        //首先new一个要测试的类
    val myTest=new MyTest("string")
       //其中通过PrivateMethod修饰,[]中为返回值, ('method)单引号后跟私有方法名
    val dosth=PrivateMethod[String]('doSth)
       //通过invokePrivate 委托调用私有方法,注意参数要对,貌似传null的话会找不到对应的方法
    val str=myTest invokePrivate dosth("string")
       //最后断言相应的至即可
    asset(str=="string")
  }
}
Spark程序使用Scala进行单元测试的更多相关文章
- Spark程序进行单元测试-使用scala
		Spark 中进行一些单元测试技巧:最近刚写了一点Spark上的单元测试,大概整理了一些 rdd测试 spark程序一般从集群中读取数据然后通过rdd进行转换,这其中涉及到集群,每次修改bug,上传到 ... 
- scala IDE for Eclipse开发Spark程序
		1.开发环境准备 scala IDE for Eclipse:版本(4.6.1) 官网下载:http://scala-ide.org/download/sdk.html 百度云盘下载:链接:http: ... 
- sbt打包Scala写的Spark程序,打包正常,提交运行时提示找不到对应的类
		sbt打包Scala写的Spark程序,打包正常,提交运行时提示找不到对应的类 详述 使用sbt对写的Spark程序打包,过程中没有问题 spark-submit提交jar包运行提示找不到对应的类 解 ... 
- 使用Scala编写Spark程序求基站下移动用户停留时长TopN
		使用Scala编写Spark程序求基站下移动用户停留时长TopN 1. 需求:根据手机基站日志计算停留时长的TopN 我们的手机之所以能够实现移动通信,是因为在全国各地有许许多多的基站,只要手机一开机 ... 
- 解惑:在Ubuntu18.04.2的idea上运行Scala支持的spark程序遇到的问题
		解惑:在Ubuntu18.04.2的idea上运行Scala支持的spark程序遇到的问题 一.前言 最近在做一点小的实验,用到了Scala,spark这些东西,于是在Linux平台上来完成,结果一个 ... 
- 如何在本地使用scala或python运行Spark程序
		如何在本地使用scala或python运行Spark程序 包含两个部分: 本地scala语言编写程序,并编译打包成jar,在本地运行. 本地使用python语言编写程序,直接调用spark的接口, ... 
- 在IntelliJ IDEA中创建和运行java/scala/spark程序
		本文将分两部分来介绍如何在IntelliJ IDEA中运行Java/Scala/Spark程序: 基本概念介绍 在IntelliJ IDEA中创建和运行java/scala/spark程序 基本概念介 ... 
- 如何运行Spark程序
		[hxsyl@CentOSMaster spark-2.0.2-bin-hadoop2.6]# ./bin/spark-submit --class org.apache.spark.examples ... 
- Spark系列—02 Spark程序牛刀小试
		一.执行第一个Spark程序 1.执行程序 我们执行一下Spark自带的一个例子,利用蒙特·卡罗算法求PI: 启动Spark集群后,可以在集群的任何一台机器上执行一下命令: /home/spark/s ... 
随机推荐
- Vue 面试题总结
			1. Vue 框架的优点是什么? (1)轻量级框架:只关注视图层,大小只有几十Kb: (2)简单易学:文档通顺清晰,语法简单: (3)数据双向绑定,数据视图结构分离,仅需操作数据即可完 ... 
- JAVA NIO  Selector Channel
			These four events are represented by the four SelectionKey constants: SelectionKey.OP_CONNECT Select ... 
- 自动化运维工具-Ansible之1-基础
			自动化运维工具-Ansible之1-基础 目录 自动化运维工具-Ansible之1-基础 Ansible 基本概述 定义 特点 架构 工作原理 任务执行模式 命令执行过程 Ansible 安装 Ans ... 
- Atcoder abc187 F Close Group(动态规划)
			Atcoder abc187 F Close Group 题目 给出一张n个点,m条边的无向图,问删除任意数量的边后,留下来的最少数量的团的个数(\(n \le 18\) ) 题解 核心:枚举状态+动 ... 
- node使用xlsx导入导出excel
			1.安装和引入xlsx 安装 npm install xlsx 引入:let xlsx = require('xlsx');2.读取excel数据function readFile(file) { ... 
- 10年前,我就用 SQL注入漏洞黑了学校网站
			我是风筝,公众号「古时的风筝」,一个兼具深度与广度的程序员鼓励师,一个本打算写诗却写起了代码的田园码农! 文章会收录在 JavaNewBee 中,更有 Java 后端知识图谱,从小白到大牛要走的路都在 ... 
- 漫画|web的主要安全问题
			在此主要说现在市面上存在的4个比较多的安全问题 一.钓鱼 钓鱼: 比较有诱惑性的标题 仿冒真实网站 骗取用户账号 骗取用户资料 二.篡改页面 有一大部分被黑的网站中会有关键字 (在被黑的网站中,用的最 ... 
- 入门Kubernetes -基础概念
			一.Kubernetes概述 Kubernetes ,又称为 k8s(首字母为 k.首字母与尾字母之间有 8 个字符.尾字母为 s,所以简称 k8s)或者简称为 "kube" ,是 ... 
- IndexedDB详解
			目录 简介 IndexedDB简介 IndexedDB的使用 IndexedDB的浏览器支持 创建IndexedDB indexdb中的CURD 使用游标cursor 简介 IndexedDB是一种在 ... 
- fastjson复现项目代码
			详情请见:https://www.cnblogs.com/yunmuq/p/14268028.html 以下是代码 // FastjsonDemo.java package test; import ... 
