0. 说明

  聚合气温数据,聚合出 MAX 、 MIN 、 AVG


1. Spark Shell 实现

  1.1 MAX

  分步实现

# 加载文档
val rdd1 = sc.textFile("file:///home/centos/temp3.dat") # 压扁
val rdd2 = rdd1.map(line=>{var arr = line.split(" ");(arr().toInt , arr().toInt)}) # 得到最大值
val rdd3 = rdd2.reduceByKey((a,b)=>if(a > b)a else b) rdd3.collect # 年份升序
val rdd4 = rdd3.sortByKey(true)
# 气温降序
val rdd4 = rdd3.sortBy(t=>t._2,false)
rdd4.collect 

# 遍历输出
rdd4.foreach(println)

  一步完成

sc.textFile("file:///home/centos/temp3.dat").map(line=>{var arr = line.split(" ");(arr().toInt , arr().toInt)}).reduceByKey((a,b)=>if(a > b)a else b).sortByKey(true).collect.foreach(println)

  1.2 MIN

  分步实现

# 加载文档
val rdd1 = sc.textFile("file:///home/centos/temp3.dat") # 压扁
val rdd2 = rdd1.map(line=>{var arr = line.split(" ");(arr().toInt , arr().toInt)}) # 得到最小值
val rdd3 = rdd2.reduceByKey((a,b)=>if(a < b)a else b) rdd3.collect # 年份升序
val rdd4 = rdd3.sortByKey(true) # 气温降序
val rdd4 = rdd3.sortBy(t=>t._2,false)
rdd4.collect # 遍历输出
rdd4.foreach(println)

  一步完成

sc.textFile("file:///home/centos/temp3.dat").map(line=>{var arr = line.split(" ");(arr(0).toInt , arr(1).toInt)}).reduceByKey((a,b)=>if(a < b)a else b).sortByKey(true).collect.foreach(println)

 


2. IDEA 实现

  2.1 Scala 实现一

import org.apache.spark.{SparkConf, SparkContext}

/**
* 气温数据聚合应用
*/
object TempAggDemoScala {
def main(args: Array[String]): Unit = {
// 创建 spark 配置对象
val conf = new SparkConf()
conf.setAppName("tempAgg2")
conf.setMaster("local") // 创建上下文
val sc = new SparkContext(conf) // 1. 加载文件
val rdd1 = sc.textFile("file:///e:/temp3.dat") // 2. 切割成对(1930,54)
val rdd2 = rdd1.map(line => {
var arr = line.split(" ")
(arr(0).toInt, arr(1).toInt)
}) // 3. 按照年度分组(1930->{23,34,67} , 1931->{...})
val rdd3 = rdd2.groupByKey() // 4. 对组内元素进行统计聚合
val rdd4 = rdd3.mapValues(it => {
val max = it.max
val min = it.min
val sum = it.sum
val size = it.size
(max, min, sum.toFloat / size) }) // 5. 按照年度排序
val rdd5 = rdd4.sortByKey(true) // 6. 输出
rdd5.collect().foreach(println)
}
}

  2.2 Scala 实现二

import org.apache.spark.{SparkConf, SparkContext}

/**
* 气温数据聚合应用2
*/
object TempAggDemo2Scala {
def main(args: Array[String]): Unit = {
// 创建 spark 配置对象
val conf = new SparkConf()
conf.setAppName("tempAgg2")
conf.setMaster("local") // 创建上下文
val sc = new SparkContext(conf) // 1. 加载文件
var rdd1 = sc.textFile("file:///e:/temp3.dat") // 2. 切割成对(1930,(54,54,54,1))
val rdd2 = rdd1.map(line => {
var arr = line.split(" ")
// (max , min , sum , count)
val year = arr(0).toInt
val temp = arr(1).toInt
(year, (temp, temp, temp, 1))
}) // 3. 聚合
val rdd3 = rdd2.reduceByKey((a, b) => {
import scala.math._
(max(a._1, b._1), min(a._2, b._2), a._3 + b._3, a._4 + b._4)
}) // 4. 交换
val rdd4 = rdd3.mapValues(t => {
(t._1, t._2, t._3.toFloat / t._4)
}).sortByKey() rdd4.collect().foreach(println)
}
}

  2.3 Java 实现二

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaPairRDD;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.api.java.function.Function;
import org.apache.spark.api.java.function.Function2;
import org.apache.spark.api.java.function.PairFunction;
import scala.Tuple2;
import scala.Tuple3;
import scala.Tuple4; import java.util.List; /**
* 气温数据聚合应用2
*/
public class TempAggDemoJava2 {
public static void main(String[] args) {
// 创建 spark 配置对象
SparkConf conf = new SparkConf();
conf.setAppName("tempAgg2");
conf.setMaster("local"); // 创建上下文
JavaSparkContext sc = new JavaSparkContext(conf); // 1. 加载文件
JavaRDD<String> rdd1 = sc.textFile("file:///e:/temp3.dat"); // 2. 变换(1903,(32,23,23,1))
JavaPairRDD<Integer, Tuple4<Integer, Integer, Integer, Integer>> rdd2 = rdd1.mapToPair(new PairFunction<String, Integer, Tuple4<Integer, Integer, Integer, Integer>>() {
public Tuple2<Integer, Tuple4<Integer, Integer, Integer, Integer>> call(String s) throws Exception {
String[] arr = s.split(" ");
int year = Integer.parseInt(arr[0]);
int temp = Integer.parseInt(arr[1]); Tuple4<Integer, Integer, Integer, Integer> v = new Tuple4<Integer, Integer, Integer, Integer>(temp, temp, temp, 1);
return new Tuple2<Integer, Tuple4<Integer, Integer, Integer, Integer>>(year, v);
}
}); // 3. 聚合
JavaPairRDD<Integer, Tuple4<Integer, Integer, Integer, Integer>> rdd3 = rdd2.reduceByKey(
new Function2<Tuple4<Integer, Integer, Integer, Integer>, Tuple4<Integer, Integer, Integer, Integer>, Tuple4<Integer, Integer, Integer, Integer>>() {
public Tuple4<Integer, Integer, Integer, Integer> call(Tuple4<Integer, Integer, Integer, Integer> v1, Tuple4<Integer, Integer, Integer, Integer> v2) throws Exception {
int max = Math.max(v1._1(), v2._1());
int min = Math.min(v1._2(), v2._2());
int sum = v1._3() + v2._3();
int count = v1._4() + v2._4(); return new Tuple4<Integer, Integer, Integer, Integer>(max, min, sum, count);
}
}); //4. map取出avg
JavaPairRDD<Integer, Tuple3<Integer, Integer, Float>> rdd4 = rdd3.mapValues(new Function<Tuple4<Integer, Integer, Integer, Integer>, Tuple3<Integer, Integer, Float>>() {
public Tuple3<Integer, Integer, Float> call(Tuple4<Integer, Integer, Integer, Integer> v1) throws Exception {
return new Tuple3<Integer, Integer, Float>(v1._1(), v1._2(), (float) v1._3() / v1._4());
}
}); // 5. 排序
JavaPairRDD<Integer, Tuple3<Integer, Integer, Float>> rdd5 = rdd4.sortByKey(); // 6. 列表
List<Tuple2<Integer, Tuple3<Integer, Integer, Float>>> list = rdd5.collect(); for (Tuple2<Integer, Tuple3<Integer, Integer, Float>> t : list) {
System.out.println(t);
} }
}

[Spark Core] Spark 实现气温统计的更多相关文章

  1. 大数据技术之_27_电商平台数据分析项目_02_预备知识 + Scala + Spark Core + Spark SQL + Spark Streaming + Java 对象池

    第0章 预备知识0.1 Scala0.1.1 Scala 操作符0.1.2 拉链操作0.2 Spark Core0.2.1 Spark RDD 持久化0.2.2 Spark 共享变量0.3 Spark ...

  2. [Spark Core] Spark Client Job 提交三级调度框架

    0. 说明  官方文档  Job Scheduling Spark 调度核心组件: DagScheduler TaskScheduler BackendScheduler 1. DagSchedule ...

  3. [Spark Core] Spark 核心组件

    0. 说明 [Spark 核心组件示意图] 1. RDD resilient distributed dataset , 弹性数据集 轻量级的数据集合,逻辑上的集合.等价于 list 没有携带数据. ...

  4. [Spark Core] Spark 使用第三方 Jar 包的方式

    0. 说明 Spark 下运行job,使用第三方 Jar 包的 3 种方式. 1. 方式一 将第三方 Jar 包分发到所有的 spark/jars 目录下 2. 方式二 将第三方 Jar 打散,和我们 ...

  5. 【待补充】[Spark Core] Spark 实现标签生成

    0. 说明 在 IDEA 中编写 Spark 代码实现将 JSON 数据转换成标签,分别用 Scala & Java 两种代码实现. 1. 准备 1.1 pom.xml  <depend ...

  6. [Spark Core] Spark 在 IDEA 下编程

    0. 说明 Spark 在 IDEA 下使用 Scala  & Spark 在 IDEA 下使用 Java 编写 WordCount 程序 1. 准备 在项目中新建模块,为模块添加 Maven ...

  7. [Spark Core] Spark Shell 实现 Word Count

    0. 说明 在 Spark Shell 实现 Word Count RDD (Resilient Distributed dataset), 弹性分布式数据集. 示意图 1. 实现 1.1 分步实现 ...

  8. Spark 3.x Spark Core详解 & 性能优化

    Spark Core 1. 概述 Spark 是一种基于内存的快速.通用.可扩展的大数据分析计算引擎 1.1 Hadoop vs Spark 上面流程对应Hadoop的处理流程,下面对应着Spark的 ...

  9. spark core (二)

    一.Spark-Shell交互式工具 1.Spark-Shell交互式工具 Spark-Shell提供了一种学习API的简单方式, 以及一个能够交互式分析数据的强大工具. 在Scala语言环境下或Py ...

随机推荐

  1. CRM项目分析建表

    这个CRM项目是我们学习一年多以来,第一次团队合作完成的项目!之前的项目都是做半个月的,但是都是自己单独完成一套项目的!这次我们还是做半个月的!但是我们是分工合作的!自己所完成的内容都是不同的!我觉得 ...

  2. 七台机器部署Hadoop2.6.5高可用集群

    1.HA架构注意事项 两个Namenode节点在某个时间只能有一个节点正常响应客户端请求,响应请求的节点状态必须是active standby状态要能够快速无缝切换成active状态,两个NN节点必须 ...

  3. ArcGIS紧凑型切片读取与应用2-webgis动态加载紧凑型切片(附源码)

    1.前言 上篇主要讲了一下紧凑型切片的的解析逻辑,这一篇主要讲一下使用openlayers动态加载紧凑型切片的web地图服务. 2.代码实现 上篇已经可以通过切片的x.y.z得对应的切片图片,现在使用 ...

  4. 拥抱HTML5

    HTNL5是2014年10月W3C推出的新标准,引入新的特性并对移动端更加友好. canvas <canvas>标签用于标记画布元素, 使用js脚本可以在画布上绘制自定义图形. 绘制矩形; ...

  5. 传统项目转前端工程化——路由跳转时出现浏览器锁死和白屏【该死的同步ajax】

    [一开始我想到是该死的同步ajax,但我没验证,把他忽略了] 在探索前端工程化vue-cli做spa时,从搜索结果页跳转商品详情页时,因为详情页有很多ajax请求,并且都用的同步请求,就会导致请求时浏 ...

  6. .2-浅析express源码之applicaiton模块(1)-咸鱼方法

    上一节讲了express的入口文件,当执行主函数,会调用app.init方法,这个方法就来源于application模块. 这个模块有很多方法,目前仅仅过一下初始化方法: app.init = fun ...

  7. [转]单据套打WINFORM实现,带预览功能

    本文转自:https://blog.csdn.net/lyflcear/article/details/22795053 昨天公司要打单子而不是以前的手写 为了实现这样的功能上网搜索了一下 http: ...

  8. C#获取电脑型号、系统版本、内存大小、硬盘大小、CPU信息

    摘要 有时需要获取电脑的相关信息.这时可以通过调用windows api的方式,进行获取. 方法 可以通过在powershell中 通过下面的命令进行查询,然后可以通过c#调用获取需要的信息. gwm ...

  9. 【JavaFx教程】第一部分:Scene Builder

    第一部分的主题 开始了解 JavaFX . 创建并运行一个 JavaFX 项目. 使用 Scene Builder 来设计用户界面. 使用 模型 - 视图 - 控制器(MVC)模式 构造基础的应用. ...

  10. POJ3468(KB7-C 线段树)

    A Simple Problem with Integers Time Limit: 5000MS  Memory Limit: 131072K Total Submissions: 108903   ...