Spark 实践——基于 Spark MLlib 和 YFCC 100M 数据集的景点推荐系统
1.前言
上接 YFCC 100M数据集分析笔记 和 使用百度地图api可视化聚类结果, 在对 YFCC 100M 聚类出的景点信息的基础上,使用 Spark MLlib 提供的 ALS 算法构建推荐模型。
本节代码可见:https://github.com/libaoquan95/TRS/tree/master/Analyse/recommend
数据信息:https://github.com/libaoquan95/TRS/tree/master/Analyse/dataset
2.数据预处理
在用户数据(user.csv) 和 用户-景点数据(user-attraction.csv) 中,用户标识和景点标识都使用了字符串进行表示,但在 Spark MLlib 提供的 ALS 算法中,要求这两者是整数类型,所以首先要对数据进行预处理,将其转化为整数。
对于 userName, 联立 user.csv 和 user-attraction.csv,将 user-attraction.csv 中的 userName 转化为 userId 即可。
对于 provinceId, 可以考虑将其编码,provinceId 格式为 省份标识_省内景点编号,如 HK_100 标识使用在香港拍摄的照片聚类出的第 100 个景点。
编码方式很简单,首先将 _ 前的省份标识转化为数字,之后与 _ 后的数字连接即可。
编码与解码代码如下:
val provinceToCode = Map(
"LN" -> "10",
"ShanX" -> "11",
"ZJ" -> "12",
"CQ" -> "13",
"HLJ" -> "14",
"AH" -> "15",
"SanX" -> "16",
"SD" -> "17",
"SH" -> "18",
"XJ" -> "19",
"HuN" -> "20",
"GS" -> "21",
"HeN" -> "22",
"BJ" -> "23",
"NMG" -> "24",
"YN" -> "25",
"JX" -> "26",
"HuB" -> "27",
"JL" -> "28",
"NX" -> "29",
"TJ" -> "30",
"FJ" -> "31",
"SC" -> "32",
"TW" -> "33",
"GX" -> "34",
"GD" -> "35",
"HeB" -> "36",
"HaiN" -> "37",
"Macro" -> "38",
"XZ" -> "39",
"GZ" -> "40",
"JS" -> "41",
"QH" -> "42",
"HK" -> "43"
)
val codeToProvince = Map(
"10" -> "LN",
"11" -> "ShanX",
"12" -> "ZJ",
"13" -> "CQ",
"14" -> "HLJ",
"15" -> "AH",
"16" -> "SanX",
"17" -> "SD",
"18" -> "SH",
"19" -> "XJ",
"20" -> "HuN",
"21" -> "GS",
"22" -> "HeN",
"23" -> "BJ",
"24" -> "NMG",
"25" -> "YN",
"26" -> "JX",
"27" -> "HuB",
"28" -> "JL",
"29" -> "NX",
"30" -> "TJ",
"31" -> "FJ",
"32" -> "SC",
"33" -> "TW",
"34" -> "GX",
"35" -> "GD",
"36" -> "HeB",
"37" -> "HaiN",
"38" -> "Macro",
"39" -> "XZ",
"40" -> "GZ",
"41" -> "JS",
"42" -> "QH",
"43" -> "HK"
)
// 编码
def codeing(str: String): String = {
var code: String = ""
val Array(province, index) = str.split('_')
code = provinceToCode(province) + index
code
}
// 解码
def decodeing(str: String): String = {
var decode: String = ""
decode = codeToProvince(str(0).toString+str(1).toString) + "_"
for (i <- 1 to str.length-1){
decode += str(i).toString
}
decode
}
之后加载用户数据 user.scv,并去除头标题。
val dataDirBase = "..\\dataset\\"
val userIdToName = sc.read.
textFile(dataDirBase + "user.csv").
flatMap{ line =>
var Array(userId, userName) = line.split(',')
if(userId == "userId"){
None
} else {
Some((userId, userName))
}
}.collect().toMap
val userNameToId = sc.read.
textFile(dataDirBase + "user.csv").
flatMap{ line =>
var Array(userId, userName) = line.split(',')
if(userId == "userId"){
None
} else {
Some((userName, userId))
}
}.collect().toMap
转化 user-attraction 数据
val userAttractionDF = sc.read.
textFile(dataDirBase + "user-attraction.csv").
flatMap{ line =>
val Array(userName, attractionId, count, rating) = line.split(',')
if (userName == "userName"){
None
} else {
Some((userNameToId(userName).toInt, codeing(attractionId).toInt, count.toInt))
}
}.toDF("user", "attraction", "count").cache()
3.建立推荐模型
Spark MLlib ALS 算法接受 三元组矩阵数据,分别代表 用户标识,景点标识,评分数据,其中 用户标识,景点标识 必须是整数。
ALS 是 最小交替二乘 的简称,是使用矩阵分解算法来填补稀疏矩阵,预测评分,具体参见矩阵分解在协同过滤推荐算法中的应用
经历过上面的步骤后,userAttractionDF 已经转化为适应 ALS 算法的数据。之后可以建立推荐模型了,将数据拆分为训练集和测试集,使用训练集训练模型。具体算法如下:
val Array(trainData, cvData) = userAttractionDF.randomSplit(Array(0.9, 0.1))
val model = new ALS().
setSeed(Random.nextLong()).
setImplicitPrefs(true).
setRank(10).
setRegParam(0.01).
setAlpha(1.0).
setMaxIter(5).
setUserCol("user").
setItemCol("attraction").
setRatingCol("count").
setPredictionCol("prediction").
fit(trainData)
4.进行推荐
Spark MLlib ALS 一次只能对一个用户进行推荐,代码如下:
def recommendByUser(userId: Int, topN: Int): Array[String] = {
val toRecommend = model.itemFactors.
select($"id".as("attraction")).
withColumn("user", lit(userId))
val topRecommendations = model.transform(toRecommend).
select("attraction", "prediction").
orderBy($"prediction".desc).
limit(topN)
val recommends = topRecommendations.select("attraction").as[Int].collect()
recommends.map(line => decodeing(line.toString))
}
推荐效果如下:
5.评测系统
验证推荐模型的正确率
def testRecommend(): Unit ={
val topN = 10
val users = cvData.select($"user").distinct().collect().map(u => u(0))
var hit = 0.0
var rec_count = 0.0
var test_count = 0.0
for (i <- 0 to users.length-1) {
val recs = recommendByUser(users(i).toString.toInt, topN).toSet
val temp = cvData.select($"attraction").
where($"user" === users(i).toString.toInt).
collect().map(a => decodeing(a(0).toString)).
toSet
hit += recs.&(temp).size
rec_count += recs.size
test_count += temp.size
}
print ("正确率:" + (hit / rec_count))
print ("召回率:" + (hit / test_count))
}
Spark 实践——基于 Spark MLlib 和 YFCC 100M 数据集的景点推荐系统的更多相关文章
- Spark 实践——基于 Spark Streaming 的实时日志分析系统
本文基于<Spark 最佳实践>第6章 Spark 流式计算. 我们知道网站用户访问流量是不间断的,基于网站的访问日志,即 Web log 分析是典型的流式实时计算应用场景.比如百度统计, ...
- YFCC 100M数据集分析笔记
--从YFCC 100M数据集中筛选出Geo信息位于中国的数据集 1.YFCC 100M简介 YFCC 100M数据库是2014年来基于雅虎Flickr的影像数据库.该库由1亿条产生于2004年至20 ...
- 苏宁基于Spark Streaming的实时日志分析系统实践 Spark Streaming 在数据平台日志解析功能的应用
https://mp.weixin.qq.com/s/KPTM02-ICt72_7ZdRZIHBA 苏宁基于Spark Streaming的实时日志分析系统实践 原创: AI+落地实践 AI前线 20 ...
- 基于Spark Mllib的文本分类
基于Spark Mllib的文本分类 文本分类是一个典型的机器学习问题,其主要目标是通过对已有语料库文本数据训练得到分类模型,进而对新文本进行类别标签的预测.这在很多领域都有现实的应用场景,如新闻网站 ...
- 【spark】spark应用(分布式估算圆周率+基于Spark MLlib的贷款风险预测)
注:本章不涉及spark和scala原理的探讨,详情见其他随笔 一.分布式估算圆周率 计算原理:假设正方形的面积S等于x²,而正方形的内切圆的面积C等于Pi×(x/2)²,因此圆面积与正方形面积之比C ...
- 京东基于Spark的风控系统架构实践和技术细节
京东基于Spark的风控系统架构实践和技术细节 时间 2016-06-02 09:36:32 炼数成金 原文 http://www.dataguru.cn/article-9419-1.html ...
- 基于Spark Mllib,SparkSQL的电影推荐系统
本文测试的Spark版本是1.3.1 本文将在Spark集群上搭建一个简单的小型的电影推荐系统,以为之后的完整项目做铺垫和知识积累 整个系统的工作流程描述如下: 1.某电影网站拥有可观的电影资源和用户 ...
- 大数据实时处理-基于Spark的大数据实时处理及应用技术培训
随着互联网.移动互联网和物联网的发展,我们已经切实地迎来了一个大数据 的时代.大数据是指无法在一定时间内用常规软件工具对其内容进行抓取.管理和处理的数据集合,对大数据的分析已经成为一个非常重要且紧迫的 ...
- 基于Spark自动扩展scikit-learn (spark-sklearn)(转载)
转载自:https://blog.csdn.net/sunbow0/article/details/50848719 1.基于Spark自动扩展scikit-learn(spark-sklearn)1 ...
随机推荐
- Vue入门2
欢迎转载,转载请注明出处. 前言 学习本系列Vue知识,需要结合本系列的一些demo.你可以查看我的 Github 或者直接下载 ZIP包 . 建议学习本系列之前已经会一个其他的前端框架,了解计算属性 ...
- 使用 zTree 右键菜单功能的总结
一: 首先什么是zTree? zTree 是一个依靠 jQuery 实现的多功能 “树插件”.优异的性能.灵活的配置.多种功能的组合是 zTree 最大优点.专门适合项目开发,尤其是 树状菜单.树状 ...
- 编程检查d:\test.txt文件是否存在,若在则显示该文件的名称和内容。
下面放两种方法 老师写的: import java.io.File; import java.io.FileInputStream; import java.io.FileNotFoundExcept ...
- ROS初级教程 cmake cmakelist.txt 的编写教程
有很多 的时候我们使用别人的程序包.然后添加东西的时候缺少什么东西,会使程序编译不过去,甚至无法运行,接下来介绍一下cmakelist.txt 的每一行的作用.为了以后添加和修改方便. 2.整体结构和 ...
- 蓝桥杯 历届试题 网络寻路(dfs搜索合法路径计数)
X 国的一个网络使用若干条线路连接若干个节点.节点间的通信是双向的.某重要数据包,为了安全起见,必须恰好被转发两次到达目的地.该包可能在任意一个节点产生,我们需要知道该网络中一共有多少种不同的转发路径 ...
- HDU 3342 Legal or Not(有向图判环 拓扑排序)
Legal or Not Time Limit: 2000/1000 MS (Java/Others) Memory Limit: 32768/32768 K (Java/Others)Tota ...
- 优化ansible速度
1.开启SSH长连接 ssh_args = -C -o ControlMaster=auto -o ControlPersist=1d \\连接保持一天 2.开启pipelining ansible执 ...
- jquery ajax error函数和及其参数详细说明(转载)
使用jquery的ajax方法向服务器发送请求的时候,常常需要使用到error函数进行错误信息的处理,本文详细的说明了ajax中error函数和函数中各个参数的用法.一般error函数返回的参数有三个 ...
- 20155209 Exp5 MSF基础应用
Exp5 MSF基础应用 实验准备 在实验之前,上网搜集了很多有关Metasploit渗透测试的资料.对这次实验影响最大的是一篇最受欢迎的10个Metasploit模块和插件.排名第一位的是MSB-M ...
- Dynamics 365 支持使用Web Api 通过名称来检索元数据
关键检索元数据我在之前的一篇博文中稍有提及,当时是为了取实体的picklist字段的属性,但当时的版本只支持通过metadataid检索,而在365中又增加了名称的检索,方便了很多. 本篇依旧用之前博 ...