Spark- 计算每个学科最受欢迎的老师
日志类型
测试数据
http://bigdata.myit.com/zhangsan
http://bigdata.myit.com/zhangsan
http://bigdata.myit.com/zhangsan
http://bigdata.myit.com/zhangsan
http://bigdata.myit.com/zhangsan
http://java.myit.com/lisi
http://java.myit.com/lisi
http://java.myit.com/lisi
计算每个学科最受欢迎的老师
package mypro
import java.net.URL
import org.apache.log4j.{Level, Logger}
import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkContext, SparkConf}
/**
* Created by 166 on 2017/9/5.
*/
object FavTeacher {
def main(args: Array[String]) {
Logger.getLogger("org.apache.spark").setLevel(Level.OFF)
val conf = new SparkConf().setAppName(this.getClass.getName).setMaster("local[2]")//local[*]代表用多个线程跑,2代表用两个线程跑
val sc = new SparkContext(conf)
//读取数据
val lines: RDD[String] = sc.textFile(args())
//整理数据
val subjectAndTeacher:RDD[(String,String)]=lines.map(line=> {
val url = new URL(line)
val host = url.getHost
val subject = host.substring(, host.indexOf("."))
val teacher = url.getPath.substring() //去掉路径前面的"/"
(subject, teacher)
})
//聚合
val reduce = subjectAndTeacher.map((_,)).reduceByKey(_+_)
//println(reduce.collect().toBuffer)
//按学科分组
val grouped: RDD[(String, Iterable[((String, String), Int)])] = reduce.groupBy(_._1._1)//迭代器不能排序,需要将它变成List。
//二次排序
val result: RDD[(String, List[((String, String), Int)])] = grouped.mapValues(_.toList.sortBy(_._2).reverse.take())//用scala的语法,会把数据全部加载到内存后再做排序,数据量大的时候会有性能问题,内存溢出的问题,不建议这样使用,
val arr: Array[(String, List[((String, String), Int)])] = result.collect()
println(arr.toBuffer)
}
}
另种角度来实现,过滤多次提交
package com.rz.spark.base
import java.net.URL
import org.apache.log4j.{Level, Logger}
import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}
// 过滤多次提交
object GroupFavTeacher2 {
def main(args: Array[String]): Unit = {
Logger.getLogger("org.apache.spark").setLevel(Level.OFF)
val conf = new SparkConf().setMaster("local[2]").setAppName(this.getClass.getSimpleName)
val sc = new SparkContext(conf)
val topN = args(1).toInt
val subject = Array("bigdata","javaee","php")
// 读取数据
val lines: RDD[String] = sc.textFile(args(0))
// 整理数据 http://bigdata.myit.cn/laozhang
val subjectAndTeacher= lines.map(line => {
val url = new URL(line)
val host = url.getHost
val subject = host.substring(0, host.indexOf("."))
val teacher = url.getPath.substring(1) // 去掉前面的/
((subject, teacher),1)
})
// 聚合
val reduced = subjectAndTeacher.reduceByKey(_+_)
// 缓存到内存,因为多次过滤都是使用同一个rdd,缓存到内存可以提高反复使用的性能
val cache = reduced.cache()
for (sb <- subject){
val sorted = cache.filter(_._1._1 == sb).sortBy(_._2,false).take(topN)
println(sorted.toBuffer)
}
sc.stop()
}
}
使用自定义分区器将每个学科的数据shuffle到独自的分区,在分区内进行排序取topN
package com.rz.spark.base
import java.net.URL
import org.apache.log4j.{Level, Logger}
import org.apache.spark.rdd.RDD
import org.apache.spark.{Partitioner, SparkConf, SparkContext}
// 自定义分区器
import scala.collection.mutable
// 过滤多次提交
object GroupFavTeacher3 {
def main(args: Array[String]): Unit = {
Logger.getLogger("org.apache.spark").setLevel(Level.OFF)
val conf = new SparkConf().setMaster("local[2]").setAppName(this.getClass.getSimpleName)
val sc = new SparkContext(conf)
val topN = args().toInt
val subject = Array("bigdata","javaee","php")
// 读取数据
val lines: RDD[String] = sc.textFile(args())
// 整理数据 http://bigdata.myit.cn/laozhang
val subjectAndTeacher= lines.map(line => {
val url = new URL(line)
val host = url.getHost
val subject = host.substring(, host.indexOf("."))
val teacher = url.getPath.substring() // 去掉前面的/
((subject, teacher),)
})
// 聚合
val reduced = subjectAndTeacher.reduceByKey(_+_)
// 计算我们有多少学科
val sujects: Array[String] = reduced.map(_._1._1).distinct().collect()
// 自定义一个分区器,并且按照指定的分区器进行分区
val subjectPartitoner = new SubjectPartitoner(sujects)
// partitionBy按照指定的分区规则进行分区
val partitioned: RDD[((String, String), Int)] = reduced.partitionBy(subjectPartitoner)
// 如果一次拿出一个分区(可以操作一个分区的数据)
val sorted = partitioned.mapPartitions(it => {
// 将迭代器转成List,然后排序,再转成迭代器返回
it.toList.sortBy(_._2).reverse.take(topN).toIterator // 按数值排序
})
val result = sorted.collect()
println(result.toBuffer)
sc.stop()
}
// 自定义分区器
class SubjectPartitoner(sbs: Array[String]) extends Partitioner{
// 相当于主构造器(new 的时候会执行一次)
// 用于存放规则的一个map
val rules = new mutable.HashMap[String, Int]()
var i =
for (sb <- sbs){
rules.put(sb,i)
i +=
}
// 返回分区的数量(下一个RDD有多少分区)
override def numPartitions: Int = sbs.length
// 根据传入的key计算分区标号
// Key是一个无组(String, String)
override def getPartition(key: Any): Int ={
// 获取学科名称
val subject = key.asInstanceOf[(String, String)]._1
// 根据规则计算分区编号
rules(subject)
}
}
}
上面的方式会有多次shuffle,reduceByKey聚合数据的时候shuffle一次,使用自定义分区器重新对数据进行分析又shuffle了一次。我们可以尽可能的减少shuffle的过程,我们可以在reduceByKey的时候手动使用自定分区器进行分区,reduceByKey默认使用的是。HashPartitioner。
package com.rz.spark.base
import java.net.URL
import org.apache.log4j.{Level, Logger}
import org.apache.spark.rdd.RDD
import org.apache.spark.{Partitioner, SparkConf, SparkContext}
// 自定义分区器且减少shuffle
import scala.collection.mutable
// 过滤多次提交
object GroupFavTeacher4 {
def main(args: Array[String]): Unit = {
Logger.getLogger("org.apache.spark").setLevel(Level.OFF)
val conf = new SparkConf().setMaster("local[2]").setAppName(this.getClass.getSimpleName)
val sc = new SparkContext(conf)
val topN = args().toInt
val subject = Array("bigdata","javaee","php")
// 读取数据
val lines: RDD[String] = sc.textFile(args())
// 整理数据 http://bigdata.myit.cn/laozhang
val subjectAndTeacher= lines.map(line => {
val url = new URL(line)
val host = url.getHost
val subject = host.substring(, host.indexOf("."))
val teacher = url.getPath.substring() // 去掉前面的/
((subject, teacher),)
})
// 计算我们有多少学科
val sujects: Array[String] = subjectAndTeacher.map(_._1._1).distinct().collect()
// 自定义一个分区器,并且按照指定的分区器进行分区
val subjectPartitoner = new SubjectPartitoner2(sujects)
// 聚合,聚合是按照指定的分区器进行分区
// 该RDD一个分区内仅有一个学科的数据
val reduced: RDD[((String, String), Int)] = subjectAndTeacher.reduceByKey(subjectPartitoner,_+_)
// 如果一次拿出一个分区(可以操作一个分区的数据)
val sorted = reduced.mapPartitions(it => {
// 将迭代器转成List,然后排序,再转成迭代器返回
it.toList.sortBy(_._2).reverse.take(topN).toIterator // 按数值排序
})
// 收集数据
val result = sorted.collect()
println(result.toBuffer)
sc.stop()
}
// 自定义分区器
class SubjectPartitoner2(sbs: Array[String]) extends Partitioner{
// 相当于主构造器(new 的时候会执行一次)
// 用于存放规则的一个map
val rules = new mutable.HashMap[String, Int]()
var i =
for (sb <- sbs){
rules.put(sb,i)
i +=
}
// 返回分区的数量(下一个RDD有多少分区)
override def numPartitions: Int = sbs.length
// 根据传入的key计算分区标号
// Key是一个无组(String, String)
override def getPartition(key: Any): Int ={
// 获取学科名称
val subject = key.asInstanceOf[(String, String)]._1
// 根据规则计算分区编号
rules(subject)
}
}
}
Spark- 计算每个学科最受欢迎的老师的更多相关文章
- 大数据学习day22------spark05------1. 学科最受欢迎老师解法补充 2. 自定义排序 3. spark任务执行过程 4. SparkTask的分类 5. Task的序列化 6. Task的多线程问题
1. 学科最受欢迎老师解法补充 day21中该案例的解法四还有一个问题,就是当各个老师受欢迎度是一样的时候,其排序规则就处理不了,以下是对其优化的解法 实现方式五 FavoriteTeacher5 p ...
- 大数据学习day21-----spark04------1. 广播变量 2. RDD中的cache 3.RDD的checkpoint方法 4. 计算学科最受欢迎老师TopN
1. 广播变量 1.1 补充知识(来源:https://blog.csdn.net/huashetianzu/article/details/7821674) 之所以存在reduce side jo ...
- Spark计算模型
[TOC] Spark计算模型 Spark程序模型 一个经典的示例模型 SparkContext中的textFile函数从HDFS读取日志文件,输出变量file var file = sc.textF ...
- spark计算两个DataFrame的差集、交集、合集
spark 计算两个dataframe 的差集.交集.合集,只选择某一列来对比比较好.新建两个 dataframe : import org.apache.spark.{SparkConf, Spar ...
- 【原创 Hadoop&Spark 动手实践 7】Spark 计算引擎剖析与动手实践
[原创 Hadoop&Spark 动手实践 7]Spark计算引擎剖析与动手实践 目标: 1. 理解Spark计算引擎的理论知识 2. 动手实践更深入的理解Spark计算引擎的细节 3. 通过 ...
- 【Spark深入学习 -13】Spark计算引擎剖析
----本节内容------- 1.遗留问题解答 2.Spark核心概念 2.1 RDD及RDD操作 2.2 Transformation和Action 2.3 Spark程序架构 2.4 Spark ...
- Java进行spark计算
首先在Linux环境安装spark: 可以从如下地址下载最新版本的spark: https://spark.apache.org/downloads.html 这个下载下来后是个tgz的压缩包,解压后 ...
- 使用spark 计算netflow数据初探
spark是一个高性能的并发的计算平台,而netflow是一种一般来说数量级很大的数据.本文记录初步使用spark 计算netflow数据的大致过程. 本文包括以下过程: 1. spark环境的搭建 ...
- Spark计算均值
作者:Syn良子 出处:http://www.cnblogs.com/cssdongl 转载请注明出处 用spark来快速计算分组的平均值,写法很便捷,话不多说上代码 object ColumnVal ...
随机推荐
- hdu 1598 find the most comfortable road(并查集)
题意:略 分析:多询问问题,利用并查集加速.类似于kruskal对MST的构建:枚举最小的边,逐渐将更大的边加入集合,当查询的点在同一个集合,那么当前最小值,就是所加的最后一条边与第一条只差. 注意: ...
- applicationContext-XXX.xml和XXX-servlet.xml的区别
1.ApplicationContext.xml 是spring 全局配置文件,用来控制spring 特性的 2.dispatcher-servlet.xml 是spring mvc里面的,控制器. ...
- pip安装错误,用镜像
Retrying (Retry(total=4, connect=None, read=None, redirect=None)) after connection broken by 'Connec ...
- 【Github】之突然访问不了Github地址
访问Github突然上不去了 解决办法: 一.修改hosts 1.打开Dns检测|Dns查询 - 站长工具2.在检测输入栏中输入http://github.com官网3.把检测列表里的TTL值最小的I ...
- No breeds found in the signature, a signature update is recommended
cobbler 2.6.11 遇到这个问题,需要 >> cobbler signature update >> and cobblerd restart 转自: https:/ ...
- sql生成器(含凝视)问题修复版
接上篇http://blog.csdn.net/panliuwen/article/details/47406455 sql生成器--生成含凝视的sql语句 今天我使用自己写的sql生成器了.自我感觉 ...
- nginx(Window下安装 & 配置文件参数说明 & 实例)
一.为什么需要对Tomcat服务器做负载均衡: Tomcat服务器作为一个Web服务器,其并发数在300-500之间,如果有超过500的并发数便会出现Tomcat不能响应新的请求的情况,严重影响网站 ...
- IOS ARC内存管理,提高效率避免内存泄露
本文转载至 http://blog.csdn.net/allison162004/article/details/38756263 Cocoa内存管理机制 (1)当你使用new.alloc.copy方 ...
- 用象棋的思维趣说IT人的职业发展和钱途
最近我花了不少功夫在学习象棋,也学习了王天一等高手的棋路,感觉IT人的职业和下棋一样,往好了讲,争主动权争实惠只争朝夕,往坏了讲,一步走错得用多步来弥补,如果错误太大未必能弥补回来.在本文里,就用下棋 ...
- 我为什么选择采用node.js来做新一代的EasyDarwin RTSP开源流媒体服务器
在去年我们还未开始开发基于node.js的新版本EasyDarwin RTSP开源流媒体服务器的时候,我写了一篇博客<对EasyDarwin开源项目后续发展的思考:站在巨人的肩膀上再跳上另一个更 ...