http://blog.csdn.net/pipisorry/article/details/51539739

吉布斯采样的实现问题

本文主要说明如何通过吉布斯采样来采样截断多维高斯分布的参数(已知一堆截断高斯分布的数据,推断其参数( μ , Σ ))。

关于吉布斯采样的介绍文章都停止在吉布斯采样的详细描述上,如随机采样和随机模拟:吉布斯采样Gibbs Sampling(why)但并没有说明吉布斯采样到底如何实现的(how)?

也就是具体怎么实现从下面这个公式采样?

下面介绍如何为多维正态分布构建一个吉布斯采样器,来采样截断多维高斯分布的参数。

皮皮blog

模型的表示

思路:要求吉布斯采样的两个维度mu和sigma的条件概率,就要先求出在数据x下mu和sigma的联合概率密度(似然函数),而这个就先要知道在mu和sigma下x的概率密度(就是高斯分布呀)以及mu和sigma的先验概率分布。

y为均值为μ协方差矩阵为 Σ的( N × 1)正态随机向量,其概率密度函数pdf为:

[概率论:高斯分布]

假设x是y的截断truncated版本,有同样的参数location and scale parameters μ and Σ , 只是截断到区域 R = { ( a i < x i < b i ), i = 1,2,... N } ,(a 可以为 −∞ or b 可以为 +∞ )。

x的pdf为:

I R ( x )是指示器函数:当x在区域R中时值为1,否则为0;

P ( μ , Σ ) ]− 1是正则化常数(由于截断),为

让 x = ( x 1 , x 2 ,..., x T ) 表示截断多维高斯分布pdf f ( x | μ , Σ ) 的随机采样

则随机采样x的pdf(μ 和 Σ的似然函数)为

高斯分布的先验和数据产生后验分布

( μ , Σ )的先验分布

设为noninformative diffuse prior(扩散先验密度),As a prior pdf for ( μ , Σ ) , we will use the conventional noninformative diffuse prior (see, for example, Zellner 1971, p.225)

( μ , Σ )的后验分布

Combining this prior with the likelihood function yields the posterior pdf for ( μ , Σ )

得到后验分布后,我们可以从这些后验pdfs中采样,并利用这些采样值估计边缘后验分布和矩(moments)。

然而其中的和式没法消去,后面将介绍如何利用隐含变量消去它。

皮皮blog

单变量高斯分布The Univariate Case

单变量高斯分布中,正则化因子式3变为:

where Φ (.) is the standard normal cumulative distribution function (cdf).

(μ , σ 2)的后验pdf (式6)为

然而从上式没法得到f ( σ 2 | x ) and f ( μ | x ):It is not possible to analytically integrate out μ or σ 2 from this pdf to obtain the marginal posterior pdfs f ( σ 2 | x ) and f ( μ | x ) . Also, because the conditional posterior pdfs f ( σ 2 | μ , x ) and f ( μ | σ 2 , x ) are not recognisable, it is not possible to set up a Gibbs’ sampling algorithm that draws from these conditional pdfs.

所以我们添加对应x的隐含变量y:令y = ( y 1 , y 2 ,..., y T ) ′ , 可看作非截断正态分布N ( μ , σ 2 )的采样,并且和截断观测值x有直接的(确定性的deterministic)对应。

考虑采样观测值y t from N ( μ , σ 2 )和x t from N ( μ , σ 2 ) × I ( a , b ) ( x t )的逆累积分布函数(inverse cdf)方法:

给定均匀分布抽样Ufrom (0,1),y t and x t的抽样分别为:

。。。一堆推导(略)

得到x和y之间的确定deterministic关系

根据贝叶斯理论,我们可以重写μ , σ 2 and y的联合后验分布(joint posterior pdf)为

由于f ( x | y , μ , σ 2 ) = 1 when (12) holds, and is zero otherwise.     The remaining terms on the right side of (13) involve y not x.则

where y is the sample mean of the y t and the relationship between y and x is given by (12).

式14中,吉布斯采样需要的条件后验pdfs分别为

式16:Inverse-gamma distribution, i_gamma(alpha, beta)采样数据实际上就是gamma分布(alpha, beta^-1)采样数据取倒数。

IG的概率密度函数pdf为

综上,

吉布斯采样截断高斯分布参数算法

从后验pdf中生成( μ , σ 2 )的步骤为

Note: 这一步对于非截断正态分布参数的推断当然是不需要的,这时12式就是y = x.(ab都取相应无穷大时)。


Note:

第3步就是

第4步就是

皮皮blog

同步图计算并行化处理

lz的不一定正确。。。

一维高斯参数推断

高斯分布参数均值mu和方差sigma作为吉布斯采样的两个坐标维度
吉布斯采样作为同步图节点,节点间是全连接的
将高斯分布数据划分为节点数目个文件提供给对应节点采样新维度

使用已有方法产生截断高斯分布的数据点,将数据分成M份,分布在M个worker节点中。

超步0
随机初始值作为mu和sigma的局部值,利用数据更新mu和sigma,传递mu和sigma的局部值给其它节点。(局部模型)
超步1+

每个节点收到其它节点发来的( μ , σ 2 )信息,重新计算( μ , σ 2 ),记录到文件中,并作为新一次迭代的初始值。(全局模型,替换局部模型)

所有节点重新运行吉布斯采样截断高斯分布参数算法,得到部分训练数据的参数采样结果( μ , σ 2 )。

将新采样的mu和sigma的局部值传递给其它节点。

或者可以每隔几个Gibbs sampling迭代结束超步进行同步,并准备进入下一个超步。而不是一次迭代就进入下一下超步。

判断程序是否终止
累加量acc,最大迭代步数。

[Distributed Inference for Latent Dirichlet Allocation]

最后lz有一个问题,吉布斯采样能用在连续的n维高斯分布采样中吗?如果可以如何实现,马尔可夫毯?

from: http://blog.csdn.net/pipisorry/article/details/51539739

ref: W. Griffiths. A Gibbs Sampler for the Parameters of a TruncatedMultivariate Normal Distribution.

随机采样和随机模拟:吉布斯采样Gibbs Sampling实现高斯分布参数推断的更多相关文章

  1. 随机模拟MCMC和Gibbs Sampling

    随机模拟 统计模拟中有一个重要的问题就是给定一个概率分布 p(x),我们如何在计算机中生成它的样本.一般而言均匀分布 Uniform(0,1)的样本是相对容易生成的. 通过线性同余发生器可以生成伪随机 ...

  2. 随机采样和随机模拟:吉布斯采样Gibbs Sampling实现文档分类

    http://blog.csdn.net/pipisorry/article/details/51525308 吉布斯采样的实现问题 本文主要说明如何通过吉布斯采样进行文档分类(聚类),当然更复杂的实 ...

  3. 随机采样和随机模拟:吉布斯采样Gibbs Sampling

    http://blog.csdn.net/pipisorry/article/details/51373090 吉布斯采样算法详解 为什么要用吉布斯采样 通俗解释一下什么是sampling. samp ...

  4. [学习笔记] Gibbs Sampling

    Gibbs Sampling Intro Gibbs Sampling 方法是我最近在看概率图模型相关的论文的时候遇见的,采样方法大致为:迭代抽样,最开始从随机样本中抽样,然后将此样本作为条件项,按条 ...

  5. 随机采样方法整理与讲解(MCMC、Gibbs Sampling等)

    本文是对参考资料中多篇关于sampling的内容进行总结+搬运,方便以后自己翻阅.其实参考资料中的资料写的比我好,大家可以看一下!好东西多分享!PRML的第11章也是sampling,有时间后面写到P ...

  6. 机器学习方法(八):随机采样方法整理(MCMC、Gibbs Sampling等)

    转载请注明出处:Bin的专栏,http://blog.csdn.net/xbinworld 本文是对参考资料中多篇关于sampling的内容进行总结+搬运,方便以后自己翻阅.其实参考资料中的资料写的比 ...

  7. 随机采样方法整理与讲解(Acceptance-Rejection、MCMC、Gibbs Sampling等)

    本文是对参考资料中多篇关于sampling的内容进行总结+搬运,方便以后自己翻阅.其实参考资料中的资料写的比我好,大家可以看一下!好东西多分享!PRML的第11章也是sampling,有时间后面写到P ...

  8. Atitit.并发测试解决方案(2) -----获取随机数据库记录 随机抽取数据 随机排序 原理and实现

    Atitit.并发测试解决方案(2) -----获取随机数据库记录 随机抽取数据 随机排序 1. 应用场景 1 2. 随机抽取数据原理 1 3. 常用的实现方法:::数据库随机函数 1 4. Mssq ...

  9. 5随机到7随机的C++实现

    一.5随机到7随机 //给定条件 int Rand1To5(){ + ; } //实现代码,使用插空法和筛的过程 int Rand1To7(){ ; do{ tmp = (Rand1To5() - ) ...

随机推荐

  1. 51nod 1770 数数字

    1770 数数字 基准时间限制:1 秒 空间限制:262144 KB 分值: 20 难度:3级算法题  收藏  关注 统计一下 aaa ⋯ aaan个a × b 的结果里面 ...

  2. 【BZOJ1026】【SCOI2009】windy数

    Description windy定义了一种windy数.不含前导零且相邻两个数字之差至少为2的正整数被称为windy数. windy想知道,在A和B之间,包括A和B,总共有多少个windy数? In ...

  3. hdu 5274 树链剖分

    Dylans loves tree Time Limit: 2000/1000 MS (Java/Others)    Memory Limit: 131072/131072 K (Java/Othe ...

  4. [cf453e]Little Pony and Lord Tirek

    来自FallDream的博客,未经允许,请勿转载,谢谢. 更博客= = 有n个数,每个数字都有一个初始大小ai和最大值mi,然后每秒会增加ri,你需要回答m个发生时间依此增大的询问,每次询问区间和并且 ...

  5. [bzoj4245][ONTAK2015]OR-XOR

    来自FallDream的博客,未经允许,请勿转载,谢谢. 给定一个长度为n的序列a[1],a[2],...,a[n],请将它划分为m段连续的区间,设第i段的费用c[i]为该段内所有数字的异或和,则总费 ...

  6. SpringBoot多环境部署,在启动时动态设置相应的配置文件

    项目中,往往在测试环境和正式环境拥有不同的配置,例如数据库连接,第三方库的appkey等.这时候,我们就要在不同的环境启用不同的配置 下面新建三个文件,分别表示开发环境,生产环境和测试环境的配置文件 ...

  7. Python爬取腾讯新闻首页所有新闻及评论

    前言 这篇博客写的是实现的一个爬取腾讯新闻首页所有的新闻及其所有评论的爬虫.选用Python的Scrapy框架.这篇文章主要讨论使用Chrome浏览器的开发者工具获取新闻及评论的来源地址. Chrom ...

  8. kibana使用

    最近,被老大叫写一个kibana的使用方法给所有人用. 注意的一点: 能不用空格表示OR或者AND就不用空格表示,因为要么全用要么全部不用,否则会因为解析搜索同级的时候,若出现空格和OR,会冲突覆盖意 ...

  9. HTMLParser使用简介

    HTMLParser具有小巧,快速的优点,缺点是相关文档比较少(英文的也少),很多功能需要自己摸索.对于初学者还是要费一些功夫的,而一旦上手以后,会发现HTMLParser的结构设计很巧妙,非常实用, ...

  10. hive升级遇到的几个小问题

    1.hiveserver2正常启动,但是beeline连不上服务. 我的服务是开在本机的,但是用主机名和127好像都不能访问服务了 jdbc:hive2://172.19.1.11:10000> ...