Mahout fp-growth
FP-growth
Apriori算法的一个主要瓶颈在于,为了获得较长的频繁模式,需要生成大量的候选短频繁模式。FP-Growth算法是针对这个瓶颈提出来的全新的一种算法模式。目前,在数据挖掘领域,Apriori和FP-Growth算法的引用次数均位列三甲。参看论文《Mining Frequence PatternsWithout Candidate Generation》 。
FP的全称是Frequent Pattern,在算法中使用了一种称为频繁模式树(Frequent Pattern Tree)的数据结构。FP-tree是一种特殊的前缀树,由频繁项头表和项前缀树构成。所谓前缀树,是一种存储候选项集的数据结构,树的分支用项名标识,树的节点存储后缀项,路径表示项集。
一、算法流程
频繁集的阈值是3,最小支持度为3。
事务数据:
图(1)
首先,扫一遍数据,统计每一项的频率;删除频率小于最小支持度的项;根据项频率,由大到小排序。
然后再扫一遍数据,构造频繁项集树。构造树的流程如下。
读第一条记录:
图(2)
读第二条记录:
图(3)
读第三条记录:
图(4)
读第四条记录:
图(5)
读第五条记录:
图(6)
为了便于后边的树的遍历,我们为这棵树又增加了一个结构-头表,头表保存了所有的频繁项目,并且按照频率的降序排列,表中的每个项目包含一个节点链表,指向树中和它同名的节点。
图(7)
好了,一颗完整的FP-Tree构造完成。
二、挖掘频繁模式
图(8)
以m为例挖掘,以m结尾的有{f:4,c:3,a:3,m:2}和{f:4,c:3,a:3,b:1,m:1}两条路径。以m为条件,{f:4,c:3,a:3,m:2}得到{fca:2},{f:4,c:3,a:3,b:1,m:1}得到{fcab:1}。两项相加得到{fca:3,b:1},b不符合频繁项阈值3,所以,
mine(FPtree|m)=mine(<f:3,c:3,a:3>|m)。
其他以此类推,得到最终的结果,如下图。
图(9)
三、MapReduce实现
(一)流程图
Step1:item计数
Map:
|
f:1 ,a:1 ,c;1,d:1,g:1,i:1,m:1,p:1 |
|
a:1,b:1,c:1,f:1,l:1,m:1,o:1 |
|
b:1,f;1 ,h;1,j;1,o:1 |
|
b:1,c:1,k:1,s:1,p:1 |
|
a:1,f;1,c:1,e:1,l:1,p:1,m:1,n:1 |
Reduce:
|
f:4 |
|
c:4 |
|
a:3 |
|
m:3 |
|
P:3 |
Step2:删除最小支持度的item,特征排序
|
f,c,a,m,p |
|
f,c,a,b,m |
|
f,b |
|
c,b,p |
|
f,c,a,m,p |
Step3:分组
|
1
|
f |
|
c |
|
|
2 |
a |
|
b |
|
|
3 |
m |
|
p |
Step4:
Map:
|
f,c |
{f, <c,a,m,p>:1} , {f,<c,a,b,m>:1} |
|
a.b |
{f,<b>:1}, {c, <b,p>:1} |
|
m,p |
{f,<c,a,m,p>:1} |
Reduce:
|
f,{<c,a,m,p>:1, <c,a,b,m>:1, <b>:1, <c,a,m,p>:1} |
|
c,{<b,p>:1} |
Step5:
Map:
|
f,<c,a,m,p>:1 |
{p,<c,a,m,p>:1},{m,<c,a>:1},{a,<c,a>:1},{c,<c>:1} |
|
f,<c,a,b,m>:1 |
{m,<c,a,b,m>:1},{b,<c,a,b>:1},{a,<c,a>:1},{c,<c>:1} |
|
f,<b>:1 |
{b,<b>:1} |
|
f,<c,a,m,p>:1 |
{p,<c,a,m,p>:1},{m,<c,a,m>:1},{a,<c,a>:1},{c,<c>:1} |
|
c,<b,p>:1 |
{p,<b,p>:1},{b,<b>:1} |
Reduce:
|
f,c |
{c,<c>:3} |
|
a,b |
{a,<c,a>:3},{b,<c:1,a:1,b:3>} |
|
m,p |
{m,<c:3,a:3,b:1,m:3>},{p,<c;3,b:1,a:2,m:2,p:3>} |
Step6:
|
(二)startParallelCounting();
输入的是文本数据,key为行号,value为文本中的一行,分割。
第一遍扫数据集。Map中分割一行,然后计数,在reduce中求和。类似于WordCount实例。
(三)startGroupingItems();
(1)读取上一步的结果,删除Item数量<最小支持度的Item。
(2)将Item分组,默认分为50组。
(四)startTransactionSorting();
第二遍扫数据集。
Map:分割一行数据,如果没有在特征集中的项,跳过。根据之前统计出的Item 特征的数量大小排序分割后的Item(由大到小排序),组成 a[]。
输出格式为:key a[0],value <a[a.length] ,1> 。1表示支持度为1。
Reduce: 排序号的相同前缀的项集(即a[0]相同),汇聚到同一个Reduce中。
输出格式为:1,<a[a.length] ,1>
(五)startParallelFPGrowth();
输入前一个Job的输出。
Map:
setUp(){
从配置信息中获取Item的分组信息。
}
对<a[a.length] ,1>,计算子模式。
比如如对 ({a,b,c,d,e} ,1) ,输出为:
<groupId(e),({a,b,c,d,e},1)>,
<groupId(d),({a,b,c,d},1)>,
<groupId(c),({a,b,c},1)>,
<groupId(b),({a,b},1)>,
<groupId(a),({a},1)>
Combier:
对相同组的key合并,构建一个子树。
输出为合并后的子树。
Reduce:
1.对相同组的key,做全局合并,构建一个子树。原理为树的合并算法。
2.对该组数据,构建Head-table,项排序顺序为它的数量由大到小。
3.对该组数据中的每一个Head-table特征,挖掘Top k个频繁模式,原理如图(8)。
4.输出:Text key,TopKStringPatterns values 。Key为特征编号,value为该特征的Top k个频繁模式。
输出数据为:m,<{f,c,a},2>}和{m,<{f,c,a,b},1>}
(六)startAggregating();
Map:
输入数据为 {m,<{f,c,a},2>}和{m,<{f,c,a,b},1>}。
对数据{m,<{f,c,a},2>},输出为{mf,<{f,c,a},2>}、{mc,<{f,c,a},2>}和{ma,<{f,c,a},2>}。
对数据{m,<{f,c,a,b},1>},输出为{mf,<{f,c,a,b},1>}、{mc,<{f,c,a,b},1>}、 {ma,<{f,c,a,b},1>}、{mb,<{f,c,a,b},1>}
Reduce:
Map中相同key的频繁模式合并。
对上面数据,合并为{mf,<f:3,c:3,a:3,b:1>}或{mc,<f:3,c:3,a:3,b:1>}或{ma,<f:3,c:3,a:3,b:1>}或{mb,<f:1,c:1,a:1,b:1>}
过滤掉不满足阈值的项。结果为{m,<{f,c,a},3>}
四、API说明
API
|
FPGrowthDriver.main(arg); |
|
|
--minSupport (-s) |
最小支持度 |
|
--input (-i) input |
输入路径 |
|
-output (-o) |
输出路径 |
|
--maxHeapSize (-k) (Optional) |
挖掘最少k个item |
|
--numGroups (-g) |
特征分组数 |
|
--method (-method) |
Sequential或mapreduce |
|
--encoding (-e) |
默认UTF-8 |
|
--numTreeCacheEntries (-tc) |
缓存大小,默认5 |
|
--splitterPattern (-regex) |
默认"[ ,\t]*[,|\t][ ,\t]*" |
输入文件示例(文本文件)
|
f,g,d,e,b,c,a,j,k,h,i f,g,d,e,c,j,k,h,i f,d g,b,j,i g,e,a,k f,g,d,e,b,c,a,k,h,i f,g,d,b,c,j,k f,g,d,e,b,c,a,j,k,h,i f,b,j f,g,e,b,c,a,j,k,h,i f,g,b,c,k,h,i g,e,c,a,j,k,h,i f,g,e,c,k,i d |
示例
|
String [] arg ={"-s","5", "-i","fp/data.txt", "-o","fpgrowth" ,"-k","4", "-g","50", "-method","mapreduce", "-e","UTF-8", "-tc","5"}; FPGrowthDriver.main(arg); |
输出格式
|
结果文件 |
Key类型 |
Value类型 |
|
frequentpatterns |
Item (org.apache.hadoop.io.Text) |
模式(org.apache.mahout.fpm.pfpgrowth.convertors.string.TopKStringPatterns) |
输出文件转成文本结果
|
Key: a: Value: ([a],122), ([d, a],89), ([b, a],87), ([b, d, a],67) Key: b: Value: ([b],129), ([g, b],92), ([k, b],91), ([b, d],90) Key: c: Value: ([c],121), ([k, c],88), ([g, c],88), ([k, g, c],69) Key: d: Value: ([d],128), ([g, d],90), ([b, d],90), ([d, a],89) Key: e: Value: ([e],121), ([k, e],87), ([g, e],86), ([k, g, e],63) Key: f: Value: ([f],120), ([g, f],91), ([b, f],89), ([g, b, f],71) Key: g: Value: ([g],130), ([k, g],94), ([g, b],92), ([g, f],91) Key: h: Value: ([h],110), ([g, h],81), ([k, h],80), ([k, g, h],61) Key: i: Value: ([i],119), ([k, i],88), ([g, i],84), ([k, g, i],68) Key: j: Value: ([j],121), ([g, j],90), ([k, j],88), ([k, g, j],68) Key: k: Value: ([k],133), ([k, g],94), ([k, b],91), ([k, j],88) |
五、参考文献
1.《MiningFrequent Patterns without Candidate Generation》JiaweiHan, Jian Pei, and Yiwen Yin
2.《FP-Growth 算法MapReduce 化研究》 吕雪骥,李龙澍
3.博客:http://blog.sina.com.cn/s/blog_6fb7db430100vdj7.html
Mahout fp-growth的更多相关文章
- FP - growth 发现频繁项集
FP - growth是一种比Apriori更高效的发现频繁项集的方法.FP是frequent pattern的简称,即常在一块儿出现的元素项的集合的模型.通过将数据集存储在一个特定的FP树上,然后发 ...
- Frequent Pattern 挖掘之二(FP Growth算法)(转)
FP树构造 FP Growth算法利用了巧妙的数据结构,大大降低了Aproir挖掘算法的代价,他不需要不断得生成候选项目队列和不断得扫描整个数据库进行比对.为了达到这样的效果,它采用了一种简洁的数据结 ...
- FP—Growth算法
FP_growth算法是韩家炜老师在2000年提出的关联分析算法,该算法和Apriori算法最大的不同有两点: 第一,不产生候选集,第二,只需要两次遍历数据库,大大提高了效率,用31646条测试记录, ...
- 关联规则算法之FP growth算法
FP树构造 FP Growth算法利用了巧妙的数据结构,大大降低了Aproir挖掘算法的代价,他不需要不断得生成候选项目队列和不断得扫描整个数据库进行比对.为了达到这样的效果,它采用了一种简洁的数据结 ...
- Frequent Pattern (FP Growth算法)
FP树构造 FP Growth算法利用了巧妙的数据结构,大大降低了Aproir挖掘算法的代价,他不需要不断得生成候选项目队列和不断得扫描整个数据库进行比对.为了达 到这样的效果,它采用了一种简洁的数据 ...
- 机器学习(十五)— Apriori算法、FP Growth算法
1.Apriori算法 Apriori算法是常用的用于挖掘出数据关联规则的算法,它用来找出数据值中频繁出现的数据集合,找出这些集合的模式有助于我们做一些决策. Apriori算法采用了迭代的方法,先搜 ...
- Frequent Pattern 挖掘之二(FP Growth算法)
Frequent Pattern 挖掘之二(FP Growth算法) FP树构造 FP Growth算法利用了巧妙的数据结构,大大降低了Aproir挖掘算法的代价,他不需要不断得生成候选项目队列和不断 ...
- 【甘道夫】并行化频繁模式挖掘算法FP Growth及其在Mahout下的命令使用
今天调研了并行化频繁模式挖掘算法PFP Growth及其在Mahout下的命令使用,简单记录下试验结果,供以后查阅: 环境:Jdk1.7 + Hadoop2.2.0单机伪集群 + Mahout0.6 ...
- Mahout学习之Mahout简介、安装、配置、入门程序测试
一.Mahout简介 查了Mahout的中文意思——驭象的人,再看看Mahout的logo,好吧,想和小黄象happy地玩耍,得顺便陪陪这位驭象人耍耍了... 附logo: (就是他,骑在象头上的那个 ...
- 转】机器学习开源框架Mahout配置与入门研究
原博文出自于:http://www.ha97.com/5803.html 感谢! PS:机器学习这两年特别火,ATB使劲开百万到几百万年薪招美国牛校的机器学习方向博士,作为一个技术控,也得折腾下 ...
随机推荐
- 决策树之ID3、C4.5
决策树是一种类似于流程图的树结构,其中,每个内部节点(非树叶节点)表示一个属性上的测试,每个分枝代表该测试的一个输出,而每个树叶节点(或终端节点存放一个类标号).树的最顶层节点是根节点.下图是一个典型 ...
- PTA中提交Python3程序的一些套路
0. FAQ 0.1 提交后提示"答案错误"或者"格式错误" PTA检查答案正确与否是通过字符串匹配实现的.所以可能有以下几种原因: 格式错误:程序的输出要与题 ...
- 操作系统内核Hack:(三)引导程序制作
操作系统内核Hack:(三)引导程序制作 关于本文涉及到的完整源码请参考MiniOS的v1_bootloader分支. 1.制作方法 现在我们已经了解了关于BootLoader的一切知识,让我们开始动 ...
- Sublime Text 3下C/C++开发环境搭建
Sublime Text 3下C/C++开发环境搭建 之前在Linux Mint 17一周使用体验中简单介绍过Sublime Text. 1.Sublime Text 3安装 Ubuntu.Linux ...
- Android简易实战教程--第四十二话《Spinner下拉级联效果》
本篇承接第四十话第四十话<Spinner> 参考博客:http://blog.csdn.net/yayun0516 进入正题: Strings加入第一级数据: <string-arr ...
- hexo常用命令
Hexo 约有二十个命令,但普通用户经常使用的只有下列几个: hexo s hexo s是hexo server的缩写,命令效果一致:启动本地服务器,用于预览主题.默认地址: http://local ...
- SpringMVC常用配置
关于Spring.SpringMVC我们前面几篇博客都介绍了很多,但是还不够,这些框架中涉及到的注解.配置非常多,那么我们今天再来介绍一个SpringMVC的基本配置,灵活的使用这些配置,可以让我们在 ...
- 设置 NSZombieEnabled 定位 EXC_BAD_ACCESS 错误
我们做 iOS 程序开发时经常用遇到 EXC_BAD_ACCESS 错误导致 Crash,出现这种错误时一般 Xcode 不会给我们太多的信息来定位错误来源,只是在应用 Delegate 上留下像 T ...
- springmvc注解形式的开发参数接收
springmvc基于注解的开发 注解第一个例子 1. 创建web项目 springmvc-2 2. 在springmvc的配置文件中指定注解驱动,配置扫描器 <!-- sprimgmvc 注解 ...
- Struts 1 之文件上传
Struts 1 对Apache的commons-fileupload进行了再封装,把上传文件封装成FormFile对象 定义UploadForm: private FormFilefile; //上 ...