Here is a note of Distance dependent Chinese Restaurant Processes 文章链接http://pan.baidu.com/s/1dEk7ZA5 1. Distance dependent CRPs In the traditional CRP ,the probability of a customer sitting at a table is computed from the number of other customers a…
In Chinese Restaurant 题目连接: http://acm.hust.edu.cn/vjudge/contest/123332#problem/B Description When Vova arrived in Guangzhou, his Chinese friends immediately invited him to a restaurant. Overall n people came to the restaurant, including Vova. The w…
阅读文献:Distance Dependent Infinite Latent Feature Model 作者:Samuel J.Gershman ,Peter I.Frazier ,and David M.Blei   摘要: 潜在特征模型在对数据进行小模块分解的过程中被广泛使用.这些模型的贝叶斯非参数变量在潜在特征上使用了IBP先验,进而使得特征的数量由数据决定.我们提出了一种一般化的IBP--距离依赖IBP,用来建模不可交换数据.这种模型依赖于数据点之间定义的距离,倾向于使相邻近的数据共…
也就是说假设空桌子有a0个人,然后顾客选择桌子的概率和桌子上人数成正比. 性质: 改变用户的排列方式,桌子的排列方式,概率不变换.…
在David M.Blei 的Distance Dependent Chinese Restaurant Processes 中提到:DDCRP 的一个重要性质,也是和dependent DP 的一个区别,就是"In general ,dependent DPs exhibit marginal invariance while distance dependent CRPs do NOT " .文章中对Marginal invariance 的定义是: "The tradi…
100 Most Popular Machine Learning Video Talks 26971 views, 1:00:45,  Gaussian Process Basics, David MacKay, 8 comments 7799 views, 3:08:32, Introduction to Machine Learning, Iain Murray 16092 views, 1:28:05, Introduction to Support Vector Machines, C…
ICLR 2013 International Conference on Learning Representations May 02 - 04, 2013, Scottsdale, Arizona, USA ICLR 2013 Workshop Track Accepted for Oral Presentation Zero-Shot Learning Through Cross-Modal Transfer Richard Socher, Milind Ganjoo, Hamsa Sr…
转:http://www.zhizhihu.com/html/y2011/3228.html l  Theory n  Introduction u  Unsupervised learning by probabilistic latent semantic analysis. u  Latent dirichlet allocation. u  Finding scientific topics. u  Rethinking LDA: Why Priors Matter u  On an e…
from: http://www.metacademy.org/roadmaps/rgrosse/bayesian_machine_learning Created by: Roger Grosse(http://www.cs.toronto.edu/~rgrosse/) Intended for: beginning machine learning researchers, practitioners Bayesian statistics is a branch of statistics…
向量定义:x1 = c(1,2,3); x2 = c(1:100) 类型显示:mode(x1) 向量长度:length(x2) 向量元素显示:x1[c(1,2,3)] 多维向量:multi-dimensional vector:rbind(x1,x2); cbind(x1,x2) > x = c(1,2,3,4,5,6) > y = c(6,5,4,3,2,1) > z = rbind(x,y) > z [,1] [,2] [,3] [,4] [,5] [,6] x 1 2 3 4…
Notes on the Dirichlet Distribution and Dirichlet Process In [3]: %matplotlib inline   Note: I wrote this post in an IPython notebook. It might be rendered better on NBViewer. Dirichlet Distribution The symmetric Dirichlet distribution (DD) can be co…
重要的是通过实践更深入地了解贝叶斯思想,先浅浅地了解下LDA. From: http://blog.csdn.net/huagong_adu/article/details/7937616/ 传统方法的缺陷: 传统判断两个文档相似性的方法是通过查看两个文档共同出现的单词的多少,如TF-IDF等,这种方法没有考虑到文字背后的语义关联,可能在两个文档共同出现的单词很少甚至没有,但两个文档是相似的. 在主题模型中,主题表示一个概念.一个方面,表现为一系列相关的单词,是这些单词的条件概率.形象来说,主题…
From: http://www.cnblogs.com/bayesianML/p/6377588.html#central_problem You can do it: Dirichlet Process, HDP, HDP-HMM, IBP, CRM, etc. 本文目录结构如下: 核心主题 中心问题 参数估计 模型比较 非贝叶斯方法 最大似然 正则化 EM算法 基本推断算法 MAP估计 Gibbs采样 马尔科夫链蒙特卡洛(MCMC) 变分推断(Variational inference)…
1.Blei的LDA代码(C):http://www.cs.princeton.edu/~blei/lda-c/index.html2.D.Bei的主页:http://www.cs.princeton.edu/~blei/publications.html3.Gibbs LDA++  by Xuan-Hieu Phan and Cam-Tu Nguyen(C++):http://gibbslda.sourceforge.net/4.用GibbsLDA做Topic Modeling (教程 by…
以下内容主要基于<Latent Dirichlet Allocation>,JMLR-2003一文,另加入了一些自己的理解,刚开始了解,有不对的还请各位指正. LDA-Latent Dirichlet Allocation JMLR-2003 摘要:本文讨论的LDA是对于离散数据集,如文本集,的一种生成式概率模型.LDA是一个三层的贝叶斯分层模型,将数据集中每一项,如每个文本,建模为某些未知的topic组成的集合的混合.每个topic又建模为某种混合概率分布.在文本建模中,话题的概率就提供了每…
此文为David M. Blei所写的<Introduction to Probabilistic Topic Models>的译文,供大家参考. 摘要:概率主题模型是一系列旨在发现隐藏在大规模文档中的主题结构的算法.本文首先回顾了这一领域的主要思想,接着调研了当前的研究水平,最后展望某些有所希望的方向.从最简单的主题模型——潜在狄立克雷分配(Latent Dirichlet Allocation,LDA)出发,讨论了其与概率建模的联系,描述了用于主题发现的两种算法.主题模型日新月异,被扩展和…
关于Latent Dirichlet Allocation及Hierarchical LDA模型的必读文章和相关代码 转: http://andyliuxs.iteye.com/blog/1051743 LDA和HLDA: (1)D. M. Blei, et al., "Latent Dirichlet allocation," Journal of Machine Learning Research, vol. 3, pp. 993-1022, 2003. (2)T. L. Grif…
概率主题模型简介 Introduction to Probabilistic Topic Models      转:http://www.cnblogs.com/siegfang/archive/2013/01/30/2882391.html   此文为David M. Blei所写的<Introduction to Probabilistic Topic Models>的译文,供大家参考. 摘要:概率主题模型是一系列旨在发现隐藏在大规模文档中的主题结构的算法.本文首先回顾了这一领域的主要思…
Dirichlet Process and Hierarchical Dirichlet Process 原文:http://hi.baidu.com/zentopus/item/46a622f5ef13e4c5a835a28e Dirichlet Process and Hierarchical Dirichlet Process 在这篇文章里,我会初步地介绍Dirichlet Process以及Hierarchical Dirichlet Process,不过仅仅局限于模型本身,并不涉及其i…
重要的是通过实践更深入地了解贝叶斯思想,先浅浅地了解下LDA. 相关数学知识 LDA-math-MCMC 和 Gibbs Sampling LDA-math - 认识 Beta/Dirichlet 分布 LDA-math - 神奇的 Gamma 函数 LDA学习心得(一)——Gamma函数与Beta/Dirichlet分布 LDA学习心得(二)——文本建模 非常好!https://arxiv.org/pdf/1908.03142.pdf[LDA精讲] From: http://blog.csdn…
Fast Food Time Limit:3000MS     Memory Limit:0KB     64bit IO Format:%lld & %llu Submit Status Practice UVA 662 Appoint description:  System Crawler  (2015-08-27) Description   The fastfood chain McBurger owns several restaurants along a highway. Rec…
转自:http://blog.csdn.net/u011707076/article/details/44903223 LevelStream 实现超大无缝地图--官方文档学习 The Level Streaming feature makes it possible to load and unload map files into memory as well as toggle their visibility all during play. This makes it possible…
Dirichlet Process 和 Dirichlet Process Mixture模型 [本文链接:http://www.cnblogs.com/breezedeus/archive/2012/11/05/2754940.html,转载请注明出处.] Dirichlet Process (DP)被称为分布的分布.从DP抽取出的每个样本(一个函数)都可以被认为是一个离散随机变量的分布函数,这个随机变量以非零概率值在可数无穷个离散点上取值.比较有意思的是,从DP可以推导出几个非常著名的问题:…
Dialogue 1   Healthy diet 关于健康饮食 F:Bob, look at this sentence. 'Healthy eating is not about strict nutrition philosophies, staying unrealistically thin, or depriving yourself of foods you love.' It's interesting, isn't it?  鲍勃,听听这个句子:健康的饮食不是指那些严格的营养哲…
  Burger Time?  Everybody knows that along the more important highways there are countless fast food restaurants. One can find easily hamburgers, hot dogs, pizzas, sandwiches ... food everywhere. Many times the problem isn't to find a restaurant but…
Fast Food Time Limit: 2000/1000 MS (Java/Others)    Memory Limit: 65536/32768 K (Java/Others) Total Submission(s): 2173    Accepted Submission(s): 930 Problem Description The fastfood chain McBurger owns several restaurants along a highway. Recently,…
原文地址:http://onlinelibrary.wiley.com/doi/10.1002/asi.23134/abstract 黄色背景是我认为比较重要的,红色字体是我自己的话. 动态主题监测与跟踪:HDP.共词与共引分析方法的比较 Introduction 主题监测与跟踪在文献计量学.数据挖掘以及其他多个领域中都发挥重要作用.主题监测旨在从文档集合中识别重要主题,而主题跟踪旨在对一个已经识别到的主题演化过程进行跟踪.识别主题及其内在模式对于理解主题来说至关重要. 共引分析和共词分析是文献…
先明确一些潜规则: 机器学习是个collection or set of models,一切实践性强的模型都会被归纳到这个领域,没有严格的定义,’有用‘可能就是唯一的共性. 机器学习大概分为三个领域: 一般的机器学习模型:没有掺杂太多统计概念,例如决策树,KNN聚类,感知机等. 统计机器学习模型:依赖统计理论,主要是贝叶斯统计,例如SVM,naive bayesian,贝叶斯线性回归,高斯过程等. 神经网络模型:可以简单的理解为感知机的扩展,因为扩展的太猛,单独成立门派咯. 如此定义,有助于菜鸡…
[https://zhuanlan.zhihu.com/p/30226687] LDA模型的前世今生 在文本挖掘中,有一项重要的工作就是分析和挖掘出文本中隐含的结构信息,而不依赖任何提前标注的信息.LDA(Latent Dirichlet Allocation)模型在过去十年里开启了一个主题模型领域. LDA 的论文作者是戴维·布雷(David Blei).吴恩达和迈克尔·乔丹(Michael Jordan).这三位都是今天机器学习界炙手可热的人物.论文最早发表在 2002 年的神经信息处理系统…
google搜索小技巧 一.总结 一句话总结:But most people may not be using Google search to its full potential.Want to use Google search more efficiently and get the search results you want quickly? 例如 ipod 80G"ipod 80G""ipod 80G" + "on sale"ip…