FP-growth

算法优缺点:

  • 优点:一般快于Apriori
  • 缺点:实现比较困难,在某些数据上性能下降
  • 适用数据类型:标称型数据

算法思想:

FP-growth算法是用来解决频繁项集发现问题的,这个问题再前面我们可以通过Apriori算法来解决,但是虽然利用Apriori原理加快了速度,仍旧是效率比较低的。FP-growth算法则可以解决这个问题。
FP-growth算法使用了频繁模式树(Frequent Pattern Tree)的数据结构。FP-tree是一种特殊的前缀树,由频繁项头表和项前缀树构成。所谓前缀树,是一种存储候选项集的数据结构,树的分支用项名标识,树的节点存储后缀项,路径表示项集。
FP-growth算法生成频繁项集相对Apriori生成频繁项集的主要好处就是速度快,能快到几个数量级;另一个好处就是用FP树存储数据可以减少存储空间,因为关联挖掘的数据集往往是重复性很高的,这就能带来很高的压缩比。

算法可以分成一下几个部分:

  • 构建FP树

    • 首先我们要统计出所有的元素的频度,删除不满足最小支持度的(Apriori原理)
    • 然后我们要根据频度对所有的项集排序(保证我们的树是最小的)
    • 最后根据排序的项集构建FP树
  • 从FP树挖掘频繁项集:

    • 生成条件模式基
    • 生成条件FP树

算法的执行过程这篇文章有个很好的示例程序

函数:

loadSimpDat()
创建数据集
createInitSet(dataSet)
将数据集处理成字典的形式
createTree(dataSet, minSup=1)
创建FP树的主函数。首先生成单元素的频繁项,然后对每个项集进行以频繁项的频度为基准的排序。
updateTree(items, inTree, headerTable, count)
根据每一个项集和对应的频数,更新FP树。并同时建立表头
updateHeader(nodeToTest, targetNode)
当指针已经初始化的时候,调用这个函数把新的点加到链表的最后面
ascendTree(leafNode, prefixPath)
向上遍历移植到根节点,将经过的节点都加到前缀路径中,得到整条每个频繁项的前缀路径
findPrefixPath(basePat, treeNode)
生成条件模式基
mineTree(inTree, headerTable, minSup, preFix, freqItemList)
递归调用生成条件FP树和频繁项集。创建条件FP树的过程可以重用前面createTree的代码

  1.  #coding=utf-8
    import time
    class treeNode(object):
    """docstring for treeNode"""
    def __init__(self, nameValue, numOccur, parentNode):
    super(treeNode, self).__init__()
    self.name = nameValue
    self.count = numOccur
    self.nodeLink = None
    self.parent = parentNode
    self.children = {}
    def inc(self, numOccur):
    self.count += numOccur
    def disp(self, ind=1):
    print ' '*ind,self.name,' ',self.count
    for child in self.children.values():
    child.disp(ind+1)
    def loadSimpDat():
    simpDat = [['r', 'z', 'h', 'j', 'p'],
    ['z', 'y', 'x', 'w', 'v', 'u', 't', 's'],
    ['z'],
    ['r', 'x', 'n', 'o', 's'],
    ['y', 'r', 'x', 'z', 'q', 't', 'p'],
    ['y', 'z', 'x', 'e', 'q', 's', 't', 'm']]
    return simpDat
    def createInitSet(dataSet):
    retDict = {}
    for trans in dataSet:
    retDict[frozenset(trans)] = 1
    return retDict
    def createTree(dataSet, minSup=1):
    headerTable = {}
    #frequency of each item
    for trans in dataSet:
    for item in trans:
    headerTable[item] = headerTable.get(item, 0) + dataSet[trans]#some trans may same
    #remove items not meeting minSup
    for k in headerTable.keys():
    if headerTable[k] < minSup:
    del(headerTable[k])
    freqItemSet = set(headerTable.keys())
    if len(freqItemSet) == 0:#no frequent item
    return None, None
    for k in headerTable:#add a point field
    headerTable[k] = [headerTable[k], None] retTree = treeNode('Null set', 1, None)
    for tranSet, count in dataSet.items():
    localD = {}
    for item in tranSet:#把每一个项集的元素提取出来,并加上统计出来的频率
    if item in freqItemSet:
    localD[item] = headerTable[item][0]
    if len(localD) > 0:#排序,并更新树
    orderdItem = [v[0] for v in sorted(localD.items(),key=lambda p:p[1],reverse=True)]
    updateTree(orderdItem, retTree, headerTable, count)
    return retTree, headerTable
    def updateTree(items, inTree, headerTable, count):
    #将新的节点加上来
    if items[0] in inTree.children:
    inTree.children[items[0]].inc(count)
    else:
    inTree.children[items[0]] = treeNode(items[0], count, inTree)
    #更新指针
    if headerTable[items[0]][1] == None:
    headerTable[items[0]][1] = inTree.children[items[0]]
    else:
    updateHeader(headerTable[items[0]][1],inTree.children[items[0]])
    if len(items) > 1:
    updateTree(items[1::],inTree.children[items[0]],headerTable,count)
    def updateHeader(nodeToTest, targetNode):
    while nodeToTest.nodeLink != None:
    nodeToTest = nodeToTest.nodeLink
    nodeToTest.nodeLink = targetNode def ascendTree(leafNode, prefixPath): #ascends from leaf node to root
    if leafNode.parent != None:
    prefixPath.append(leafNode.name)
    ascendTree(leafNode.parent, prefixPath) def findPrefixPath(basePat, treeNode): #treeNode comes from header table
    condPats = {}
    while treeNode != None:
    prefixPath = []
    ascendTree(treeNode, prefixPath)
    if len(prefixPath) > 1:
    condPats[frozenset(prefixPath[1:])] = treeNode.count
    treeNode = treeNode.nodeLink
    return condPats
    def mineTree(inTree, headerTable, minSup, preFix, freqItemList):
    bigL = [v[0] for v in sorted(headerTable.items(), key=lambda p: p[1])]#(sort header table)
    #print bigL
    for basePat in bigL: #start from bottom of header table
    newFreqSet = preFix.copy()
    newFreqSet.add(basePat)
    print 'finalFrequent Item: ',newFreqSet #append to set
    freqItemList.append(newFreqSet)
    condPattBases = findPrefixPath(basePat, headerTable[basePat][1])
    print 'condPattBases :',basePat, condPattBases
    #2. construct cond FP-tree from cond. pattern base
    myCondTree, myHead = createTree(condPattBases, minSup)
    print 'head from conditional tree: ', myHead
    if myHead != None: #3. mine cond. FP-tree
    print 'conditional tree for: ',newFreqSet
    myCondTree.disp(1)
    mineTree(myCondTree, myHead, minSup, newFreqSet, freqItemList)
    def main():
    if True:
    simpDat = loadSimpDat()
    initSet = createInitSet(simpDat)
    myFP, myHeadTable = createTree(initSet,3)
    myFP.disp()
    freqItems = []
    mineTree(myFP,myHeadTable,3,set([]),freqItems)
    print freqItems
    if False:
    t1 = time.clock()
    parsedDat = [line.split() for line in open('kosarak.dat').readlines()]
    initSet = createInitSet(parsedDat)
    myFP,myHeadTable = createTree(initSet,100000)
    myfreq = []
    mineTree(myFP,myHeadTable,100000,set([]),myfreq)
    t2 = time.clock()
    print 'time=', t2-t1
    print myfreq
    if __name__ == '__main__':
    main()
 
使用FP算法对一个近100万行的数据进行分析,耗时不过十来秒:

 
而如果采用Apriori的频繁集发现算法我跑了四分多种没出结果然后就强制关掉了。。。
事实证明这个算法确实能够提高数量级的速度啊。
 

机器学习笔记索引

FP-growth高效频繁项集发现的更多相关文章

  1. FP - growth 发现频繁项集

    FP - growth是一种比Apriori更高效的发现频繁项集的方法.FP是frequent pattern的简称,即常在一块儿出现的元素项的集合的模型.通过将数据集存储在一个特定的FP树上,然后发 ...

  2. 【机器学习实战】第12章 使用FP-growth算法来高效发现频繁项集

    第12章 使用FP-growth算法来高效发现频繁项集 前言 在 第11章 时我们已经介绍了用 Apriori 算法发现 频繁项集 与 关联规则.本章将继续关注发现 频繁项集 这一任务,并使用 FP- ...

  3. 机器学习实战(Machine Learning in Action)学习笔记————08.使用FPgrowth算法来高效发现频繁项集

    机器学习实战(Machine Learning in Action)学习笔记————08.使用FPgrowth算法来高效发现频繁项集 关键字:FPgrowth.频繁项集.条件FP树.非监督学习作者:米 ...

  4. 【机器学习实战】第12章 使用 FP-growth 算法来高效发现频繁项集

    第12章 使用FP-growth算法来高效发现频繁项集 前言 在 第11章 时我们已经介绍了用 Apriori 算法发现 频繁项集 与 关联规则.本章将继续关注发现 频繁项集 这一任务,并使用 FP- ...

  5. 使用 FP-growth 算法高效挖掘海量数据中的频繁项集

    前言 对于如何发现一个数据集中的频繁项集,前文讲解的经典 Apriori 算法能够做到. 然而,对于每个潜在的频繁项,它都要检索一遍数据集,这是比较低效的.在实际的大数据应用中,这么做就更不好了. 本 ...

  6. 第十五篇:使用 FP-growth 算法高效挖掘海量数据中的频繁项集

    前言 对于如何发现一个数据集中的频繁项集,前文讲解的经典 Apriori 算法能够做到. 然而,对于每个潜在的频繁项,它都要检索一遍数据集,这是比较低效的.在实际的大数据应用中,这么做就更不好了. 本 ...

  7. 频繁项集挖掘之Aprior和FPGrowth算法

    频繁项集挖掘的应用多出现于购物篮分析,现介绍两种频繁项集的挖掘算法Aprior和FPGrowth,用以发现购物篮中出现频率较高的购物组合. 基础知识 项:“属性-值”对.比如啤酒2罐.  项集:项的集 ...

  8. 机器学习实战 - 读书笔记(12) - 使用FP-growth算法来高效发现频繁项集

    前言 最近在看Peter Harrington写的"机器学习实战",这是我的学习心得,这次是第12章 - 使用FP-growth算法来高效发现频繁项集. 基本概念 FP-growt ...

  9. FP-growth算法发现频繁项集(一)——构建FP树

    常见的挖掘频繁项集算法有两类,一类是Apriori算法,另一类是FP-growth.Apriori通过不断的构造候选集.筛选候选集挖掘出频繁项集,需要多次扫描原始数据,当原始数据较大时,磁盘I/O次数 ...

随机推荐

  1. TWRP基于omnirom 6.0.1编译教程

    1.环境搭配 参照CM13.0编译笔记http://www.cnblogs.com/dinphy/p/5670293.html 参照SM 2.0 编译笔记http://www.cnblogs.com/ ...

  2. 经典KMP算法C++与Java实现代码

    前言: KMP算法是一种字符串匹配算法,由Knuth,Morris和Pratt同时发现(简称KMP算法).KMP算法的关键是利用匹配失败后的信息,尽量减少模式串与主串的匹配次数以达到快速匹配的目的.比 ...

  3. 利用HTML5的History API实现无刷新跳转页面初探

    HTML4中的History API history这个东西大家应该都不陌生,我们经常使用history.back(-1)来实现后退功能,具体的属性和方法如下: 属性 length 历史的项数.Jav ...

  4. javascript学习

    代码放在E:\JS\js学习 学习中要学会多查手册 javascript基本介绍 js是用于web开发的脚本语言. 后面统称为 js 脚本语言是什么? 脚本语言不能独立使用,它和html/jsp/ph ...

  5. Finite State Machine 是什么?

    状态机(Finite State Machine):状态机由状态寄存器和组合逻辑电路构成,能够根据控制信号按照预先设定的状态进行状态转移,是协调相关信号动       作.完成特定操作的控制中心. 类 ...

  6. 学习.Net的经典网站

    学习.Net的经典网站 收藏 还不错推荐给大家 原文-- 名称:快速入门 地址:http://chs.gotdotnet.com/quickstart/ 描述:本站点是微软.NET技术的快速入门网站, ...

  7. 【原创】Weblogic 反序列化远程命令执行漏洞GetShell&Cmd Exploit

    这工具写到半夜四点,做个记录. 已发布至freebuf,链接:http://www.freebuf.com/vuls/90802.html

  8. SH Script Grammar

    http://linux.about.com/library/cmd/blcmdl1_sh.htm http://pubs.opengroup.org/onlinepubs/9699919799/ut ...

  9. 在.net中使用GAC

    转自:http://blog.log4d.com/2011/01/gac/ GAC GAC是什么?是用来干嘛的?GAC的全称叫做全局程序集缓存,通俗的理解就是存放各种.net平台下面需要使用的dll的 ...

  10. Here String 中不该进行分词

    我们知道,在 Shell 中,一个变量在被展开后,如果它没有被双引号包围起来,那么它展开后的值还会进行一次分词(word splitting,或者叫拆词,分词这个术语已经被搜索引擎相关技术占用了)操作 ...