RDD实例
实例一:
teacher.log
http://bigdata.baidu.cn/zhangsan
http://bigdata.baidu.cn/zhangsan
http://bigdata.baidu.cn/lisi
http://bigdata.baidu.cn/lisi
http://bigdata.baidu.cn/lisi
http://bigdata.baidu.cn/lisi
http://bigdata.baidu.cn/lisi
http://bigdata.baidu.cn/wangwu
http://bigdata.baidu.cn/wangwu
http://javaee.baidu.cn/xiaoxu
http://javaee.baidu.cn/xiaoxu
http://javaee.baidu.cn/laoyang
http://javaee.baidu.cn/laoyang
http://javaee.baidu.cn/laoyang
http://bigdata.baidu.cn/lisi
http://bigdata.baidu.cn/lisi
http://bigdata.baidu.cn/lisi
http://bigdata.baidu.cn/lisi
http://bigdata.baidu.cn/lisi
http://bigdata.baidu.cn/wangwu
http://bigdata.baidu.cn/wangwu
http://javaee.baidu.cn/xiaoxu
http://javaee.baidu.cn/xiaoxu
http://javaee.baidu.cn/laoyang
http://javaee.baidu.cn/laoyang
http://javaee.baidu.cn/laoyang
http://bigdata.baidu.cn/lisi
http://bigdata.baidu.cn/lisi
http://bigdata.baidu.cn/lisi
http://bigdata.baidu.cn/lisi
http://bigdata.baidu.cn/lisi
http://bigdata.baidu.cn/wangwu
http://bigdata.baidu.cn/wangwu
http://javaee.baidu.cn/xiaoxu
http://javaee.baidu.cn/xiaoxu
http://javaee.baidu.cn/laoyang
http://javaee.baidu.cn/laoyang
http://javaee.baidu.cn/laoyang
http://php.baidu.cn/laoli
http://php.baidu.cn/laoliu
http://php.baidu.cn/laoli
http://php.baidu.cn/laoli
全局topn 组内topn
代码:
package dayo1 import java.net.URL import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext} object teacher2 {
def main(args: Array[String]): Unit = {
val conf = new SparkConf ()
.setAppName ( this.getClass.getSimpleName )
.setMaster ( "local[1]" ) val sc = new SparkContext ( conf ) val lines = sc.textFile ( "E:\\teacher.log" ) val overAll: RDD[((String, String), Int)] = lines.map ( tp => {
val teacher: String = tp.split ( "/" ).last
val host = new URL ( tp ).getHost
val subject = host.substring ( , host.indexOf ( "." ) )
((teacher, subject), )
} )
//所有科目和老师的前三
val topOverAll = overAll.reduceByKey ( _ + _ ).sortBy ( -_._2 ).take ( ).foreach ( println ) //每个科目前两名的老师
val topGroup = overAll.reduceByKey ( _ + _ ).groupBy ( _._1._2 ).mapValues ( _.toList.sortBy ( -_._2 ).take ( ) ).foreach ( println )
sc.stop () }
}
实例二:
去重
file1:
-- a
-- b
-- c
-- d
-- a
-- b
-- c
-- c file2:
-- b
-- a
-- b
-- d
-- a
-- c
-- d
-- c
代码:
package dayo1
import org.apache.spark.{SparkConf, SparkContext}
object distinct {
def main(args: Array[String]): Unit = {
val cof = new SparkConf ()
.setAppName ( this.getClass.getSimpleName )
.setMaster ( "local[1]" )
val sc = new SparkContext ( cof )
val file1 = sc.textFile ( "E:\\file1.txt" )
val file2 = sc.textFile ( "E:\\file2.txt" )
val list = file1.union ( file2 ).distinct ().sortBy ( tp => tp )
list.foreach ( println )
sc.stop ()
}
}
实例三:
temperature.txt
0067011990999991950051507004888888889999999N9++
0067011990999991950051512004888888889999999N9++
0067011990999991950051518004888888889999999N9-+
0067011990999991949032412004888888889999999N9++
0067011990999991950032418004888888880500001N9++
0067011990999991950051507004888888880500001N9++
需求:分析每年的最高温度
代码:
package dayo1
import org.apache.spark.{SparkConf, SparkContext}
/**
* 0067011990999991950051507004888888889999999N9+00001+9999999999999999999999
* 0067011990999991950051512004888888889999999N9+00221+9999999999999999999999
* 0067011990999991950051518004888888889999999N9-00111+9999999999999999999999
* 0067011990999991949032412004888888889999999N9+01111+9999999999999999999999
* 0067011990999991950032418004888888880500001N9+00001+9999999999999999999999
* 0067011990999991950051507004888888880500001N9+00781+9999999999999999999999
*
* 12345678911234567892123456789312345678941234567895123456789612345678971234
* 需求:分析每年的最高温度
* 数据说明:
*
*
* 第15-19个字符是year 6-9
*
* 第45-50位是温度表示,+表示零上 -表示零下,且温度的值不能是9999,9999表示异常数据
*
* 第50位值只能是0、1、4、5、9几个数字
*/
object temperature {
def main(args: Array[String]): Unit = {
val cof = new SparkConf ()
.setAppName ( this.getClass.getSimpleName )
.setMaster ( "local[*]" )
val sc = new SparkContext ( cof )
val lines = sc.textFile ( "E:\\temperature.txt" )
val yearAndTemp = lines.filter ( tp => {
var temp =
val query = tp.charAt ( ).toString //val query=tp.subString(50,51)
if (tp.charAt ( ).equals ( "+" )) {
temp = tp.substring ( , ).toInt
} else {
temp = tp.substring ( , ).toInt
}
temp != && query.matches ( "[01459]" )
} ).map ( tp => {
val year = tp.substring ( , )
var temp =
if (tp.charAt ( ).equals ( "+" )) {
temp = tp.substring ( , ).toInt
} else {
temp = tp.substring ( , ).toInt
}
(year, temp)
} )
val res = yearAndTemp.reduceByKey ( (x, y) => if (x > y) x else y )
res.foreach ( tp => println ( "year:" + tp._1 + " temp:" + tp._2 ) )
sc.stop ()
}
}
RDD实例的更多相关文章
- Spark RDD编程核心
一句话说,在Spark中对数据的操作其实就是对RDD的操作,而对RDD的操作不外乎创建.转换.调用求值. 什么是RDD RDD(Resilient Distributed Dataset),弹性分布式 ...
- Spark RDD 操作
1. Spark RDD 创建操作 1.1 数据集合 parallelize 可以创建一个能够并行操作的RDD.其函数定义如下: ) scala> sc.defaultParallelism ...
- spark streaming之三 rdd,job的动态生成以及动态调度
前面一篇讲到了,DAG静态模板的生成.那么spark streaming会在每一个batch时间一到,就会根据DAG所形成的逻辑以及物理依赖链(dependencies)动态生成RDD以及由这些RDD ...
- spark 源码分析之一 -- RDD的四种依赖关系
RDD的四种依赖关系 RDD四种依赖关系,分别是 ShuffleDependency.PrunDependency.RangeDependency和OneToOneDependency四种依赖关系.如 ...
- Spark入门实战系列--7.Spark Streaming(上)--实时流计算Spark Streaming原理介绍
[注]该系列文章以及使用到安装包/测试数据 可以在<倾情大奉送--Spark入门实战系列>获取 .Spark Streaming简介 1.1 概述 Spark Streaming 是Spa ...
- Spark Streaming揭秘 Day15 No Receivers方式思考
Spark Streaming揭秘 Day15 No Receivers方式思考 在前面也有比较多的篇幅介绍了Receiver在SparkStreaming中的应用,但是我们也会发现,传统的Recei ...
- spark 启动job的流程分析
从WordCount開始分析 编写一个样例程序 编写一个从HDFS中读取并计算wordcount的样例程序: packageorg.apache.spark.examples importorg.ap ...
- 《图解Spark:核心技术与案例实战》作者经验谈
1,看您有维护博客,还利用业余时间著书,在技术输出.自我提升以及本职工作的时间利用上您有没有什么心得和大家分享?(也可以包含一些您写书的小故事.)回答:在工作之余能够写博客.著书主要对技术的坚持和热爱 ...
- SparkStreaming流处理
一.Spark Streaming的介绍 1. 流处理 流式处理(Stream Processing).流式处理就是指源源不断的数据流过系统时,系统能够不停地连续计算.所以流式处理没有什么 ...
随机推荐
- 由函数$y=\sin x$的图像伸缩变换为函数$y=\sin(\omega x)$的图像(交互式)
可以拖动滑动条\(\omega\)显示动态效果
- [Javascirpt] What’s new in JavaScript (Google I/O ’19)
Private variable in class: class Counter { #count = 0; // cannot be access publicly get value () { r ...
- keras手写数字识别
import kerasimport timefrom keras.utils import np_utils start = time.time()(x_train, y_train), (x_te ...
- C#与数据库有关的控件和属性
BindingNavigator 数据记录导航 BindingSource 与数据源绑定, 常用属性:DataSource.DataMember 常用方法: DataGridView 以表格形式显示 ...
- codevs 1464 装箱问题 2 x
题目描述 Description 一个工厂制造的产品形状都是长方体,它们的高度都是h,长和宽都相等,一共有六个型号,他们的长宽分别为1*1, 2*2, 3*3 ...
- CUDA-F-2-1-CUDA编程模型概述2
Abstract: 本文继续上文介绍CUDA编程模型关于核函数以及错误处理部分 Keywords: CUDA核函数,CUDA错误处理 开篇废话 今天的废话就是人的性格一旦形成,那么就会成为最大的指向标 ...
- http状态码301和302详解及区别——辛酸的探索之路
原文链接:https://blog.csdn.net/grandPang/article/details/47448395 一直对http状态码301和302的理解比较模糊,在遇到实际的问题和翻阅各种 ...
- jQuery动画之停止动画
语法格式: $(selector).stop(true, false); 第一个参数: + ture: 后续动画不执行 false:后续动画会执行 第二个参数: true: 立即执行完成当前动画 fa ...
- Latex的beamer幻灯片图形不编号的问题
在beamer幻灯片中如果插入图形,一般不会显示图形编号,这是其默认模式,但我们可以通过设置给图形编号.解决办法是: 在导言区加上命令: \setbeamertemplate{caption}[num ...
- [JZOJ5400]:Repulsed(贪心+树形DP)
题目描述 小$w$心里的火焰就要被熄灭了. 简便起见,假设小$w$的内心是一棵$n-1$条边,$n$个节点的树. 现在你要在每个节点里放一些个灭火器,每个节点可以放任意多个. 接下来每个节点都要被分配 ...