左外链接(leftOuterJoin) spark实现

package com.kangaroo.studio.algorithms.join;

import org.apache.spark.api.java.JavaPairRDD;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.api.java.function.Function;
import org.apache.spark.api.java.function.PairFlatMapFunction;
import org.apache.spark.api.java.function.PairFunction;
import scala.Tuple2; import java.util.ArrayList;
import java.util.HashSet;
import java.util.List;
import java.util.Set; public class LeftOuterJoinSpark { private JavaSparkContext jsc;
private String usersInputFile;
private String transactionsInputFile; public LeftOuterJoinSpark(String usersInputFile, String transactionsInputFile) {
this.jsc = new JavaSparkContext();
this.usersInputFile = usersInputFile;
this.transactionsInputFile = transactionsInputFile;
} public void run() {
/*
* 读入users文件, 文件有两列, userId和location, 以制表符\t分割, 形如:
* u1 UT
* u2 GA
* u3 GA
* */
JavaRDD<String> users = jsc.textFile(usersInputFile, 1); /*
* 将字符串切分为kv对
* 输入: line字符串
* 输出: (userId, ("L", location)), 其中L标识这是一个location, 后面会有"P"标识这是一个product
* ("u1", ("L", "UT"))
* ("u2", ("L", "GA"))
* ("u3", ("L", "GA"))
* */
JavaPairRDD<String, Tuple2<String, String>> usersRDD = users.mapToPair(new PairFunction<String, String, Tuple2<String, String>>() {
public Tuple2<String, Tuple2<String, String>> call(String s) throws Exception {
String[] userRecord = s.split("\t");
String userId = userRecord[0];
Tuple2<String, String> location = new Tuple2<String, String>("L", userRecord[1]);
return new Tuple2<String, Tuple2<String, String>>(userId, location);
}
}); /*
* 读入transattion文件, 文件有4列, transactionIdproductId/userId/price, 以制表符\t分割
* t1 p3 u1 300
* t2 p1 u2 400
* t3 p1 u3 200
* */
JavaRDD<String> transactions = jsc.textFile(transactionsInputFile, 1); /*
* 将字符串切分为kv对
* 输入: line字符串
* 输出: (userId, ("P", productId)), "P"标识这是一个product
* ("u1", ("P", "p3"))
* ("u2", ("P", "p1"))
* ("u3", ("P", "p1"))
* */
JavaPairRDD<String, Tuple2<String, String>> transactionsRDD = transactions.mapToPair(new PairFunction<String, String, Tuple2<String, String>>() {
public Tuple2<String, Tuple2<String, String>> call(String s) throws Exception {
String[] transactionRecord = s.split("\t");
String userId = transactionRecord[2];
Tuple2<String, String> product = new Tuple2<String, String>("P", transactionRecord[1]);
return new Tuple2<String, Tuple2<String, String>>(userId, product);
}
}); /*
* 创建users和transaction的一个并集
* 输入:
* transaction ("u1", ("P", "p3"))
* users ("u1", ("L", "UT"))
* 输出:
* (userId, ("L", location))
* (userId, ("P", product))
* */
JavaPairRDD<String, Tuple2<String, String>> allRDD = transactionsRDD.union(usersRDD); /*
* 按照userId进行分组
* 输入:
* (userId, ("L", location))
* (userId, ("P", product))
* 输出:
* (userId, List[
* ("L", location),
* ("P", p1),
* ("P", p2),
* ... ])
* */
JavaPairRDD<String, Iterable<Tuple2<String, String>>> groupedRDD = allRDD.groupByKey(); /*
* 去掉userId, 行程location和product的配对
* 输入:
* (userId, List[
* ("L", location),
* ("P", p1),
* ("P", p2),
* ... ])
* 输出:
* (product1, location1)
* (product1, location2)
* (product2, location1)
* */
JavaPairRDD<String, String> productLocationRDD = groupedRDD.flatMapToPair(new PairFlatMapFunction<Tuple2<String, Iterable<Tuple2<String, String>>>, String, String>() {
public Iterable<Tuple2<String, String>> call(Tuple2<String, Iterable<Tuple2<String, String>>> s) throws Exception {
String userId = s._1;
Iterable<Tuple2<String, String>> pairs = s._2;
String location = "UNKNOWN";
List<String> products = new ArrayList<String>();
for (Tuple2<String, String> t2 : pairs) {
if (t2._1.equals("L")) {
location = t2._2;
} else if (t2._1.equals("P")){
products.add(t2._2);
}
}
List<Tuple2<String, String>> kvList = new ArrayList<Tuple2<String, String>>();
for (String product : products) {
kvList.add(new Tuple2<String, String>(product, location));
}
return kvList;
}
}); /*
* 以productId为key进行分组
* 输入:
* (product1, location1)
* (product1, location2)
* (product2, location1)
* 输出:
* (product1, List[
* location1,
* location2,
* ... ])
* */
JavaPairRDD<String, Iterable<String>> productByLocations = productLocationRDD.groupByKey(); /*
* 对location进行去重
* 输出:
* (product1, List[
* location1,
* location2,
* location2,
* ... ])
* 输出:
* (product1, List[
* location1,
* location2,
* ... ])
* */
JavaPairRDD<String, Tuple2<Set<String>, Integer>> productByUniqueLocations = productByLocations.mapValues(new Function<Iterable<String>, Tuple2<Set<String>, Integer>>() {
public Tuple2<Set<String>, Integer> call(Iterable<String> strings) throws Exception {
Set<String> uniqueLocations = new HashSet<String>();
for (String location : strings) {
uniqueLocations.add(location);
}
return new Tuple2<Set<String>, Integer>(uniqueLocations, uniqueLocations.size());
}
}); /*
* 打印结果
* */
List<Tuple2<String, Tuple2<Set<String>, Integer>>> result = productByUniqueLocations.collect();
for (Tuple2<String, Tuple2<Set<String>, Integer>> t : result) {
// productId
System.out.println(t._1);
// locationSet和size
System.out.println(t._2);
}
} public static void main(String[] args) {
String usersInputFile = args[0];
String transactionsInputFile = args[1];
LeftOuterJoinSpark leftOuterJoinSpark = new LeftOuterJoinSpark(usersInputFile, transactionsInputFile);
leftOuterJoinSpark.run();
}
}

大数据算法设计模式(2) - 左外链接(leftOuterJoin) spark实现的更多相关文章

  1. 大数据算法设计模式(1) - topN spark实现

    topN算法,spark实现 package com.kangaroo.studio.algorithms.topn; import org.apache.spark.api.java.JavaPai ...

  2. 大数据算法->推荐系统常用算法之基于内容的推荐系统算法

    港真,自己一直非常希望做算法工程师,所以自己现在开始对现在常用的大数据算法进行不断地学习,今天了解到的算法,就是我们生活中无处不在的推荐系统算法. 其实,向别人推荐商品是一个很常见的现象,比如我用了一 ...

  3. 滴滴大数据算法大赛Di-Tech2016参赛总结

    https://www.jianshu.com/p/4140be00d4e3 题目描述 建模方法 特征工程 我的几次提升方法 从其他队伍那里学习到的提升方法 总结和感想 神经网络方法的一点思考 大数据 ...

  4. MySQL☞左外链接与右外连接

    外链接查询:即要查询有关联关系的数据,还要查询没有关联关系的数据.(个人理解为:表A和表B两个关联的列中)如下图: emmm,简单的来说两个表的关联关系:book.bid=bookshop.id,他们 ...

  5. sql 三表左外链接的2种写法【原】

    初始化语句 DROP TABLE student; ) )); ','bobo'); ','sisi'); ','gugu'); ','mimi'); DROP TABLE room; ) ),roo ...

  6. 大数据与可靠性会碰撞出什么样的Spark?

    可靠性工程领域的可靠性评估,可靠性仿真计算,健康检测与预管理(PHM)技术,可靠性试验,都需要大规模数据来进行支撑才能产生好的效果,以往这些数据都是不全并且收集困难,而随着互联网+的大数据时代的来临, ...

  7. 大数据技术之_19_Spark学习_01_Spark 基础解析 + Spark 概述 + Spark 集群安装 + 执行 Spark 程序

    第1章 Spark 概述1.1 什么是 Spark1.2 Spark 特点1.3 Spark 的用户和用途第2章 Spark 集群安装2.1 集群角色2.2 机器准备2.3 下载 Spark 安装包2 ...

  8. 一文看懂大数据的技术生态Hadoop, hive,spark都有了[转]

    大数据本身是个很宽泛的概念,Hadoop生态圈(或者泛生态圈)基本上都是为了处理超过单机尺度的数据处理而诞生的.你可以把它比作一个厨房所以需要的各种工具.锅碗瓢盆,各有各的用处,互相之间又有重合.你可 ...

  9. 浅析大数据的技术生态圈(Hadoop,hive,spark)

    大数据本身是个很宽泛的概念,Hadoop生态圈(或者泛生态圈)基本上都是为了处理超过单机尺度的数据处理而诞生的.你可以把它比作一个厨房所以需要的各种工具.锅碗瓢盆,各有各的用处,互相之间又有重合.你可 ...

随机推荐

  1. PHP初入,(特效的使用)

    <body> <input id="btn1" type="button" value="按钮" /> <in ...

  2. MacOS下免密码ssh登陆

       由于配置过程中需要频繁的进行ssh连接到开发服务器执行命令以及通过scp命令向服务器拷贝文件等依赖ssh连接的操作.所以,配置本地环境跟服务器之间的ssh免密码连接可以有效的提升工作效率.    ...

  3. CentOS7中安装MySQL5.7 (转)

    安装必要的组件 yum install –y autoconf automake imake libxml2-devel expat-devel cmake gcc gcc-c++ libaio li ...

  4. 【1414软工助教】团队作业6——展示博客(Alpha版本) 得分榜

    题目 团队作业6--展示博客(Alpha版本) 作业提交情况情况 为所欲为 团队没有提交,其余都按时提交. 往期成绩 个人作业1:四则运算控制台 结对项目1:GUI 个人作业2:案例分析 结对项目2: ...

  5. 个人作业3--------个人总结(Alpha版本)

    1.问题 从第一次写博客开始,就开始意识到自己所犯的错误了,助教提醒命名规范的问题,还给了Java编码规范的链接,让自己以后能注意到这些问题. 对设计的需求分析需要团队一起,一开始分配任务是给个人分配 ...

  6. Beta阶段冲刺日志集合贴

    [Beta]Daily Scrum Meeting--Day1:http://www.cnblogs.com/RunningGuys/p/6890738.html [Beta]Daily Scrum ...

  7. 201521123075 《Java程序设计》第5周学习总结

    1. 本周学习总结 2. 书面作业 作业参考文件下载 1 .代码阅读:Child压缩包内源代码 1.1 com.parent包中Child.java文件能否编译通过?哪句会出现错误?试改正该错误.并分 ...

  8. 201521123077 《Java程序设计》第2周学习总结

    1. 本周学习总结 动态数组 标识控制符的意义 ArrayList ,BigDecimal,BigInteger 等类的使用 组合,继承,多态等概念的了解 2. 书面作业 Q1.使用Eclipse关联 ...

  9. Java项目生成Jar文件

    打开 Jar 文件向导 Jar 文件向导可用于将项目导出为可运行的 jar 包. 打开向导的步骤为: 在 Package Explorer 中选择你要导出的项目内容.如果你要导出项目中所有的类和资源, ...

  10. org.hibernate.HibernateException: No Hibernate Session bound to thread, and configuration does not a

    如果出现了这个错误,看看在使用Hibernate的时候有没有在事务的环境下执行操作!