http://cos.name/2013/01/lda-math-mcmc-and-gibbs-sampling/

http://blog.csdn.net/lin360580306/article/details/51240398

http://blog.csdn.net/pipisorry/article/details/51373090

随机模拟(或者统计模拟)方法有一个很酷的别名是蒙特卡罗方法(Monte Carlo Simulation)。这个方法的发展始于20世纪40年代,和原子弹制造的曼哈顿计划密切相关,当时的几个大牛,包括乌拉姆、冯.诺依曼、费米、费曼、Nicholas Metropolis, 在美国洛斯阿拉莫斯国家实验室研究裂变物质的中子连锁反应的时候,开始使用统计模拟的方法,并在最早的计算机上进行编程实现。

随机模拟与计算机

现代的统计模拟方法最早由数学家乌拉姆提出,被Metropolis命名为蒙特卡罗方法,蒙特卡罗是著名的赌场,赌博总是和统计密切关联的,所以这个命名风趣而贴切,很快被大家广泛接受。被不过据说费米之前就已经在实验中使用了,但是没有发表。说起蒙特卡罗方法的源头,可以追溯到18世纪,布丰当年用于计算ππ的著名的投针实验就是蒙特卡罗模拟实验。统计采样的方法其实数学家们很早就知道,但是在计算机出现以前,随机数生成的成本很高,所以该方法也没有实用价值。随着计算机技术在二十世纪后半叶的迅猛发展,随机模拟技术很快进入实用阶段。对那些用确定算法不可行或不可能解决的问题,蒙特卡罗方法常常为人们带来希望。

蒙特卡罗方法

统计模拟中有一个重要的问题就是给定一个概率分布p(x)p(x),我们如何在计算机中生成它的样本。一般而言均匀分布 Uniform(0,1)Uniform(0,1)的样本是相对容易生成的。 通过线性同余发生器可以生成伪随机数,我们用确定性算法生成[0,1][0,1]之间的伪随机数序列后,这些序列的各种统计指标和均匀分布 Uniform(0,1)Uniform(0,1) 的理论计算结果非常接近。这样的伪随机序列就有比较好的统计性质,可以被当成真实的随机数使用。

生成一个概率分布的样本

而我们常见的概率分布,无论是连续的还是离散的分布,都可以基于Uniform(0,1)Uniform(0,1) 的样本生成。例如正态分布可以通过著名的 Box-Muller 变换得到

[Box-Muller 变换]  如果随机变量 U1,U2U1,U2 独立且U1,U2∼Uniform[0,1]U1,U2∼Uniform[0,1],

Z0Z1=−2lnU1−−−−−−−√cos(2πU2)=−2lnU1−−−−−−−√sin(2πU2)Z0=−2ln⁡U1cos(2πU2)Z1=−2ln⁡U1sin(2πU2)

则 Z0,Z1Z0,Z1 独立且服从标准正态分布。

其它几个著名的连续分布,包括指数分布、Gamma 分布、t 分布、F 分布、Beta 分布、Dirichlet 分布等等,也都可以通过类似的数学变换得到;离散的分布通过均匀分布更加容易生成。更多的统计分布如何通过均匀分布的变换生成出来,大家可以参考统计计算的书,其中 Sheldon M. Ross 的《统计模拟》是写得非常通俗易懂的一本。

不过我们并不是总是这么幸运的,当p(x)p(x)的形式很复杂,或者 p(x)p(x) 是个高维的分布的时候,样本的生成就可能很困难了。 譬如有如下的情况

  • p(x)=p~(x)∫p~(x)dxp(x)=p~(x)∫p~(x)dx,而 p~(x)p~(x) 我们是可以计算的,但是底下的积分式无法显式计算。
  • p(x,y)p(x,y) 是一个二维的分布函数,这个函数本身计算很困难,但是条件分布 p(x|y),p(y|x)p(x|y),p(y|x)的计算相对简单;如果 p(x)p(x) 是高维的,这种情形就更加明显。

此时就需要使用一些更加复杂的随机模拟的方法来生成样本。而本节中将要重点介绍的 MCMC(Markov Chain Monte Carlo) 和 Gibbs Sampling算法就是最常用的一种,这两个方法在现代贝叶斯分析中被广泛使用。要了解这两个算法,我们首先要对马氏链的平稳分布的性质有基本的认识。

3.2 马氏链及其平稳分布

马氏链的数学定义很简单

P(Xt+1=x|Xt,Xt−1,⋯)=P(Xt+1=x|Xt)P(Xt+1=x|Xt,Xt−1,⋯)=P(Xt+1=x|Xt)

也就是状态转移的概率只依赖于前一个状态。

我们先来看马氏链的一个具体的例子。社会学家经常把人按其经济状况分成3类:下层(lower-class)、中层(middle-class)、上层(upper-class),我们用1,2,3 分别代表这三个阶层。社会学家们发现决定一个人的收入阶层的最重要的因素就是其父母的收入阶层。如果一个人的收入属于下层类别,那么他的孩子属于下层收入的概率是 0.65, 属于中层收入的概率是 0.28, 属于上层收入的概率是 0.07。事实上,从父代到子代,收入阶层的变化的转移概率如下

使用矩阵的表示方式,转移概率矩阵记为

P=⎡⎣⎢0.650.150.120.280.670.360.070.180.52⎤⎦⎥P=[0.650.280.070.150.670.180.120.360.52]

假设当前这一代人处在下层、中层、上层的人的比例是概率分布向量 π0=[π0(1),π0(2),π0(3)]π0=[π0(1),π0(2),π0(3)],那么他们的子女的分布比例将是 π1=π0Pπ1=π0P, 他们的孙子代的分布比例将是 π2=π1P=π0P2π2=π1P=π0P2, ……, 第nn代子孙的收入分布比例将是 πn=πn−1P=π0Pnπn=πn−1P=π0Pn。

假设初始概率分布为π0=[0.21,0.68,0.11]π0=[0.21,0.68,0.11],则我们可以计算前nn代人的分布状况如下

我们发现从第7代人开始,这个分布就稳定不变了,这个是偶然的吗?我们换一个初始概率分布π0=[0.75,0.15,0.1]π0=[0.75,0.15,0.1] 试试看,继续计算前nn代人的分布状况如下

我们发现,到第9代人的时候, 分布又收敛了。最为奇特的是,两次给定不同的初始概率分布,最终都收敛到概率分布 π=[0.286,0.489,0.225]π=[0.286,0.489,0.225],也就是说收敛的行为和初始概率分布 π0π0 无关。这说明这个收敛行为主要是由概率转移矩阵PP决定的。我们计算一下 PnPn

P20=P21=⋯=P100=⋯=⎡⎣⎢0.2860.2860.2860.4890.4890.4890.2250.2250.225⎤⎦⎥P20=P21=⋯=P100=⋯=[0.2860.4890.2250.2860.4890.2250.2860.4890.225]

我们发现,当 nn 足够大的时候,这个PnPn矩阵的每一行都是稳定地收敛到π=[0.286,0.489,0.225]π=[0.286,0.489,0.225] 这个概率分布。自然的,这个收敛现象并非是我们这个马氏链独有的,而是绝大多数马氏链的共同行为,关于马氏链的收敛我们有如下漂亮的定理:

马氏链定理: 如果一个非周期马氏链具有转移概率矩阵PP,且它的任何两个状态是连通的,那么 limn→∞Pnijlimn→∞Pijn 存在且与ii无关,记 limn→∞Pnij=π(j)limn→∞Pijn=π(j), 我们有

  1. limn→∞Pn=⎡⎣⎢⎢⎢⎢⎢⎢π(1)π(1)⋯π(1)⋯π(2)π(2)⋯π(2)⋯⋯⋯⋯⋯⋯π(j)π(j)⋯π(j)⋯⋯⋯⋯⋯⋯⎤⎦⎥⎥⎥⎥⎥⎥limn→∞Pn=[π(1)π(2)⋯π(j)⋯π(1)π(2)⋯π(j)⋯⋯⋯⋯⋯⋯π(1)π(2)⋯π(j)⋯⋯⋯⋯⋯⋯]
  1. π(j)=∑i=0∞π(i)Pijπ(j)=∑i=0∞π(i)Pij
  2. ππ 是方程 πP=ππP=π 的唯一非负解

其中,

π=[π(1),π(2),⋯,π(j),⋯],∑i=0∞πi=1π=[π(1),π(2),⋯,π(j),⋯],∑i=0∞πi=1

ππ称为马氏链的平稳分布。

这个马氏链的收敛定理非常重要,所有的 MCMC(Markov Chain Monte Carlo) 方法都是以这个定理作为理论基础的。 定理的证明相对复杂,一般的随机过程课本中也不给证明,所以我们就不用纠结它的证明了,直接用这个定理的结论就好了。我们对这个定理的内容做一些解释说明:

  1. 该定理中马氏链的状态不要求有限,可以是有无穷多个的;
  2. 定理中的“非周期“这个概念我们不打算解释了,因为我们遇到的绝大多数马氏链都是非周期的;
  3. 两个状态i,ji,j是连通并非指ii 可以直接一步转移到jj(Pij>0Pij>0),而是指 ii 可以通过有限的nn步转移到达jj(Pnij>0Pijn>0)。马氏链的任何两个状态是连通的含义是指存在一个nn, 使得矩阵PnPn 中的任何一个元素的数值都大于零。
  4. 我们用 XiXi 表示在马氏链上跳转第ii步后所处的状态,如果 limn→∞Pnij=π(j)limn→∞Pijn=π(j)存在,很容易证明以上定理的第二个结论。由于
    P(Xn+1=j)=∑i=0∞P(Xn=i)P(Xn+1=j|Xn=i)=∑i=0∞P(Xn=i)PijP(Xn+1=j)=∑i=0∞P(Xn=i)P(Xn+1=j|Xn=i)=∑i=0∞P(Xn=i)Pij

    上式两边取极限就得到 π(j)=∑i=0∞π(i)Pijπ(j)=∑i=0∞π(i)Pij

从初始概率分布 π0π0 出发,我们在马氏链上做状态转移,记XiXi的概率分布为πiπi, 则有

X0Xi∼π0(x)∼πi(x),πi(x)=πi−1(x)P=π0(x)PnX0∼π0(x)Xi∼πi(x),πi(x)=πi−1(x)P=π0(x)Pn

由马氏链收敛的定理, 概率分布πi(x)πi(x)将收敛到平稳分布 π(x)π(x)。假设到第nn步的时候马氏链收敛,则有

X0X1XnXn+1Xn+2∼π0(x)∼π1(x)⋯∼πn(x)=π(x)∼π(x)∼π(x)⋯X0∼π0(x)X1∼π1(x)⋯Xn∼πn(x)=π(x)Xn+1∼π(x)Xn+2∼π(x)⋯

所以 Xn,Xn+1,Xn+2,⋯∼π(x)Xn,Xn+1,Xn+2,⋯∼π(x) 都是同分布的随机变量,当然他们并不独立。如果我们从一个具体的初始状态 x0x0 开始,沿着马氏链按照概率转移矩阵做跳转,那么我们得到一个转移序列 x0,x1,x2,⋯xn,xn+1⋯,x0,x1,x2,⋯xn,xn+1⋯, 由于马氏链的收敛行为, xn,xn+1,⋯xn,xn+1,⋯ 都将是平稳分布 π(x)π(x) 的样本。

3.3 Markov Chain Monte Carlo

对于给定的概率分布p(x)p(x),我们希望能有便捷的方式生成它对应的样本。由于马氏链能收敛到平稳分布, 于是一个很的漂亮想法是:如果我们能构造一个转移矩阵为PP的马氏链,使得该马氏链的平稳分布恰好是p(x)p(x), 那么我们从任何一个初始状态x0x0出发沿着马氏链转移, 得到一个转移序列 x0,x1,x2,⋯xn,xn+1⋯,x0,x1,x2,⋯xn,xn+1⋯,, 如果马氏链在第nn步已经收敛了,于是我们就得到了 π(x)π(x) 的样本xn,xn+1⋯xn,xn+1⋯。

这个绝妙的想法在1953年被 Metropolis想到了,为了研究粒子系统的平稳性质, Metropolis 考虑了物理学中常见的波尔兹曼分布的采样问题,首次提出了基于马氏链的蒙特卡罗方法,即Metropolis算法,并在最早的计算机上编程实现。Metropolis 算法是首个普适的采样方法,并启发了一系列 MCMC方法,所以人们把它视为随机模拟技术腾飞的起点。 Metropolis的这篇论文被收录在《统计学中的重大突破》中, Metropolis算法也被遴选为二十世纪的十个最重要的算法之一。

我们接下来介绍的MCMC 算法是 Metropolis 算法的一个改进变种,即常用的 Metropolis-Hastings 算法。由上一节的例子和定理我们看到了,马氏链的收敛性质主要由转移矩阵PP 决定, 所以基于马氏链做采样的关键问题是如何构造转移矩阵PP,使得平稳分布恰好是我们要的分布p(x)p(x)。如何能做到这一点呢?我们主要使用如下的定理。

定理:[细致平稳条件] 如果非周期马氏链的转移矩阵PP和分布π(x)π(x) 满足

π(i)Pij=π(j)Pjifor alli,j(1)(1)π(i)Pij=π(j)Pjifor alli,j

则 π(x)π(x) 是马氏链的平稳分布,上式被称为细致平稳条件(detailed balance condition)。

其实这个定理是显而易见的,因为细致平稳条件的物理含义就是对于任何两个状态i,ji,j, 从 ii 转移出去到jj 而丢失的概率质量,恰好会被从 jj 转移回ii 的概率质量补充回来,所以状态ii上的概率质量π(i)π(i)是稳定的,从而π(x)π(x)是马氏链的平稳分布。数学上的证明也很简单,由细致平稳条件可得

∑i=1∞π(i)Pij=∑i=1∞π(j)Pji=π(j)∑i=1∞Pji=π(j)⇒πP=π∑i=1∞π(i)Pij=∑i=1∞π(j)Pji=π(j)∑i=1∞Pji=π(j)⇒πP=π

由于ππ 是方程 πP=ππP=π的解,所以ππ是平稳分布。

假设我们已经有一个转移矩阵为QQ马氏链(q(i,j)q(i,j)表示从状态 ii转移到状态jj的概率,也可以写为 q(j|i)q(j|i)或者q(i→j)q(i→j)), 显然,通常情况下

p(i)q(i,j)≠p(j)q(j,i)p(i)q(i,j)≠p(j)q(j,i)

也就是细致平稳条件不成立,所以 p(x)p(x) 不太可能是这个马氏链的平稳分布。我们可否对马氏链做一个改造,使得细致平稳条件成立呢?譬如,我们引入一个 α(i,j)α(i,j), 我们希望

p(i)q(i,j)α(i,j)=p(j)q(j,i)α(j,i)(∗)(2)(2)p(i)q(i,j)α(i,j)=p(j)q(j,i)α(j,i)(∗)

取什么样的 α(i,j)α(i,j) 以上等式能成立呢?最简单的,按照对称性,我们可以取

α(i,j)=p(j)q(j,i),α(j,i)=p(i)q(i,j)α(i,j)=p(j)q(j,i),α(j,i)=p(i)q(i,j)

于是(*)式就成立了。所以有

p(i)q(i,j)α(i,j)Q′(i,j)=p(j)q(j,i)α(j,i)Q′(j,i)(∗∗)(3)(3)p(i)q(i,j)α(i,j)⏟Q′(i,j)=p(j)q(j,i)α(j,i)⏟Q′(j,i)(∗∗)

于是我们把原来具有转移矩阵QQ的一个很普通的马氏链,改造为了具有转移矩阵Q′Q′的马氏链,而 Q′Q′恰好满足细致平稳条件,由此马氏链Q′Q′的平稳分布就是p(x)p(x)!

在改造 QQ 的过程中引入的 α(i,j)α(i,j)称为接受率,物理意义可以理解为在原来的马氏链上,从状态 ii 以q(i,j)q(i,j) 的概率转跳转到状态jj 的时候,我们以α(i,j)α(i,j)的概率接受这个转移,于是得到新的马氏链Q′Q′的转移概率为q(i,j)α(i,j)q(i,j)α(i,j)。

马氏链转移和接受概率

假设我们已经有一个转移矩阵Q(对应元素为q(i,j)q(i,j)), 把以上的过程整理一下,我们就得到了如下的用于采样概率分布p(x)p(x)的算法。

上述过程中 p(x),q(x|y)p(x),q(x|y) 说的都是离散的情形,事实上即便这两个分布是连续的,以上算法仍然是有效,于是就得到更一般的连续概率分布 p(x)p(x)的采样算法,而 q(x|y)q(x|y) 就是任意一个连续二元概率分布对应的条件分布。

以上的 MCMC 采样算法已经能很漂亮的工作了,不过它有一个小的问题:马氏链QQ在转移的过程中的接受率 α(i,j)α(i,j) 可能偏小,这样采样过程中马氏链容易原地踏步,拒绝大量的跳转,这使得马氏链遍历所有的状态空间要花费太长的时间,收敛到平稳分布p(x)p(x)的速度太慢。有没有办法提升一些接受率呢?

假设 α(i,j)=0.1,α(j,i)=0.2α(i,j)=0.1,α(j,i)=0.2, 此时满足细致平稳条件,于是

p(i)q(i,j)×0.1=p(j)q(j,i)×0.2p(i)q(i,j)×0.1=p(j)q(j,i)×0.2

上式两边扩大5倍,我们改写为

p(i)q(i,j)×0.5=p(j)q(j,i)×1p(i)q(i,j)×0.5=p(j)q(j,i)×1

看,我们提高了接受率,而细致平稳条件并没有打破!这启发我们可以把细致平稳条件(**) 式中的α(i,j),α(j,i)α(i,j),α(j,i) 同比例放大,使得两数中最大的一个放大到1,这样我们就提高了采样中的跳转接受率。所以我们可以取

α(i,j)=min{p(j)q(j,i)p(i)q(i,j),1}α(i,j)=min{p(j)q(j,i)p(i)q(i,j),1}

于是,经过对上述MCMC 采样算法中接受率的微小改造,我们就得到了如下教科书中最常见的 Metropolis-Hastings 算法。

对于分布 p(x)p(x),我们构造转移矩阵 Q′Q′ 使其满足细致平稳条件

p(x)Q′(x→y)=p(y)Q′(y→x)p(x)Q′(x→y)=p(y)Q′(y→x)

此处 xx 并不要求是一维的,对于高维空间的 p(x)p(x),如果满足细致平稳条件

p(x)Q′(x→y)=p(y)Q′(y→x)p(x)Q′(x→y)=p(y)Q′(y→x)

那么以上的 Metropolis-Hastings 算法一样有效。

3.2 Gibbs Sampling

对于高维的情形,由于接受率 αα的存在(通常 α<1α<1), 以上 Metropolis-Hastings 算法的效率不够高。能否找到一个转移矩阵Q使得接受率 α=1α=1 呢?我们先看看二维的情形,假设有一个概率分布 p(x,y)p(x,y), 考察xx坐标相同的两个点A(x1,y1),B(x1,y2)A(x1,y1),B(x1,y2),我们发现

p(x1,y1)p(y2|x1)=p(x1)p(y1|x1)p(y2|x1)p(x1,y2)p(y1|x1)=p(x1)p(y2|x1)p(y1|x1)p(x1,y1)p(y2|x1)=p(x1)p(y1|x1)p(y2|x1)p(x1,y2)p(y1|x1)=p(x1)p(y2|x1)p(y1|x1)

所以得到

p(x1,y1)p(y2|x1)=p(x1,y2)p(y1|x1)(∗∗∗)(4)(4)p(x1,y1)p(y2|x1)=p(x1,y2)p(y1|x1)(∗∗∗)

p(A)p(y2|x1)=p(B)p(y1|x1)p(A)p(y2|x1)=p(B)p(y1|x1)

基于以上等式,我们发现,在 x=x1x=x1 这条平行于 yy轴的直线上,如果使用条件分布 p(y|x1)p(y|x1)做为任何两个点之间的转移概率,那么任何两个点之间的转移满足细致平稳条件。同样的,如果我们在 y=y1y=y1 这条直线上任意取两个点 A(x1,y1),C(x2,y1)A(x1,y1),C(x2,y1),也有如下等式

p(A)p(x2|y1)=p(C)p(x1|y1).p(A)p(x2|y1)=p(C)p(x1|y1).

平面上马氏链转移矩阵的构造

于是我们可以如下构造平面上任意两点之间的转移概率矩阵Q

Q(A→B)Q(A→C)Q(A→D)=p(yB|x1)=p(xC|y1)=0如果xA=xB=x1如果yA=yC=y1其它Q(A→B)=p(yB|x1)如果xA=xB=x1Q(A→C)=p(xC|y1)如果yA=yC=y1Q(A→D)=0其它

有了如上的转移矩阵 Q, 我们很容易验证对平面上任意两点 X,YX,Y, 满足细致平稳条件

p(X)Q(X→Y)=p(Y)Q(Y→X)p(X)Q(X→Y)=p(Y)Q(Y→X)

于是这个二维空间上的马氏链将收敛到平稳分布 p(x,y)p(x,y)。而这个算法就称为 Gibbs Sampling 算法,是 Stuart Geman 和Donald Geman 这两兄弟于1984年提出来的,之所以叫做Gibbs Sampling 是因为他们研究了Gibbs random field, 这个算法在现代贝叶斯分析中占据重要位置。

Gibbs Sampling 算法中的马氏链转移

以上采样过程中,如图所示,马氏链的转移只是轮换的沿着坐标轴 xx轴和yy轴做转移,于是得到样本 (x0,y0),(x0,y1),(x1,y1),(x1,y2),(x2,y2),⋯(x0,y0),(x0,y1),(x1,y1),(x1,y2),(x2,y2),⋯ 马氏链收敛后,最终得到的样本就是 p(x,y)p(x,y) 的样本,而收敛之前的阶段称为 burn-in period。额外说明一下,我们看到教科书上的 Gibbs Sampling 算法大都是坐标轴轮换采样的,但是这其实是不强制要求的。最一般的情形可以是,在tt时刻,可以在xx轴和yy轴之间随机的选一个坐标轴,然后按条件概率做转移,马氏链也是一样收敛的。轮换两个坐标轴只是一种方便的形式。

以上的过程我们很容易推广到高维的情形,对于(***) 式,如果x1x1 变为多维情形x1x1,可以看出推导过程不变,所以细致平稳条件同样是成立的

p(x1,y1)p(y2|x1)=p(x1,y2)p(y1|x1)(5)(5)p(x1,y1)p(y2|x1)=p(x1,y2)p(y1|x1)

此时转移矩阵 Q 由条件分布 p(y|x1)p(y|x1) 定义。上式只是说明了一根坐标轴的情形,和二维情形类似,很容易验证对所有坐标轴都有类似的结论。所以nn维空间中对于概率分布 p(x1,x2,⋯,xn)p(x1,x2,⋯,xn) 可以如下定义转移矩阵

  1. 如果当前状态为(x1,x2,⋯,xn)(x1,x2,⋯,xn),马氏链转移的过程中,只能沿着坐标轴做转移。沿着 xixi 这根坐标轴做转移的时候,转移概率由条件概率 p(xi|x1,⋯,xi−1,xi+1,⋯,xn)p(xi|x1,⋯,xi−1,xi+1,⋯,xn) 定义;
  2. 其它无法沿着单根坐标轴进行的跳转,转移概率都设置为 0。

于是我们可以把Gibbs Smapling 算法从采样二维的 p(x,y)p(x,y) 推广到采样nn 维的 p(x1,x2,⋯,xn)p(x1,x2,⋯,xn)

以上算法收敛后,得到的就是概率分布p(x1,x2,⋯,xn)p(x1,x2,⋯,xn)的样本,当然这些样本并不独立,但是我们此处要求的是采样得到的样本符合给定的概率分布,并不要求独立。同样的,在以上算法中,坐标轴轮换采样不是必须的,可以在坐标轴轮换中引入随机性,这时候转移矩阵 QQ 中任何两个点的转移概率中就会包含坐标轴选择的概率,而在通常的 Gibbs Sampling 算法中,坐标轴轮换是一个确定性的过程,也就是在给定时刻tt,在一根固定的坐标轴上转移的概率是1。

随机模拟(MCMC)的更多相关文章

  1. 随机模拟MCMC和Gibbs Sampling

    随机模拟 统计模拟中有一个重要的问题就是给定一个概率分布 p(x),我们如何在计算机中生成它的样本.一般而言均匀分布 Uniform(0,1)的样本是相对容易生成的. 通过线性同余发生器可以生成伪随机 ...

  2. 随机模拟的基本思想和常用采样方法(sampling)

    转自:http://blog.csdn.net/xianlingmao/article/details/7768833 引入 我们会遇到很多问题无法用分析的方法来求得精确解,例如由于式子特别,真的解不 ...

  3. 随机采样和随机模拟:吉布斯采样Gibbs Sampling实现高斯分布参数推断

    http://blog.csdn.net/pipisorry/article/details/51539739 吉布斯采样的实现问题 本文主要说明如何通过吉布斯采样来采样截断多维高斯分布的参数(已知一 ...

  4. 随机采样和随机模拟:吉布斯采样Gibbs Sampling实现文档分类

    http://blog.csdn.net/pipisorry/article/details/51525308 吉布斯采样的实现问题 本文主要说明如何通过吉布斯采样进行文档分类(聚类),当然更复杂的实 ...

  5. 随机采样和随机模拟:吉布斯采样Gibbs Sampling

    http://blog.csdn.net/pipisorry/article/details/51373090 吉布斯采样算法详解 为什么要用吉布斯采样 通俗解释一下什么是sampling. samp ...

  6. Python开发——排队问题随机模拟分析

    案例:主要是基于"蒙特卡罗思想",求解排队等待时间问题 场景:厕所排队问题 1.两场电影结束时间相隔较长,互不影响: 2.每场电影结束之后会有20个人想上厕所: 3.这20个人会在 ...

  7. python实现简单随机模拟——抛呀抛硬币

    还是在上次提到的数据之魅那本书,看到模拟这章,有个python模拟脚本,但书上不全,就自己简单写了下. 流程:在不同的平衡参数p(为0.5时为均匀的)下,模拟60次实验,每次投硬币8次,统计正面朝上的 ...

  8. 【Matlab编程】马氏链随机模拟

    本文是利用蒙特卡罗算法对马氏链过程的模拟.假设有10个状态,从每个状态到与之相邻状态的概率是相同的,仿真次数为1000,及进行了1000次状态转移.我们以动画的形式再现了状态转移的过程,并记录了到达每 ...

  9. 随机采样方法整理与讲解(MCMC、Gibbs Sampling等)

    本文是对参考资料中多篇关于sampling的内容进行总结+搬运,方便以后自己翻阅.其实参考资料中的资料写的比我好,大家可以看一下!好东西多分享!PRML的第11章也是sampling,有时间后面写到P ...

随机推荐

  1. 树和二叉树->线索二叉树

    文字描述 从二叉树的遍历可知,遍历二叉树的输出结果可看成一个线性队列,使得每个结点(除第一个和最后一个外)在这个线形队列中有且仅有一个前驱和一个后继.但是当采用二叉链表作为二叉树的存储结构时,只能得到 ...

  2. 嵌套表用法详解(PLSQL)

    嵌套表 嵌套表是一种类似于索引表的结构,也可以用于保存多个数据,而且也可以保存复合类型的数据 嵌套表指的是一个数据表定义事同时加入了其他内部表的定义,这一概念是在oracle 8中引入的,它们可以使用 ...

  3. LeetCode 461 Hamming Distance 解题报告

    题目要求 The Hamming distance between two integers is the number of positions at which the corresponding ...

  4. spring根据name或者id获取实例

    @Resource(name="beanname") private ClassType scheduler; 其中ClassType需要跟实例的类型对应上.

  5. Spring JPA实现逻辑源码分析总结

    1.SharedEntityManagerCreator: entitymanager的创建入口 该类被EntityManagerBeanDefinitionRegistrarPostProcesso ...

  6. sql server误删数据恢复delete(低效版)

    关键词:sql server误删数据恢复,mssql误删数据恢复,delete --切换数据库 use master --构建函数 Create PROCEDURE Recover_Deleted_D ...

  7. 前端 HTML body标签相关内容 常用标签 分割线 <hr>

    分割线 <hr> <hr>标签用来在HTML页面中创建水平分隔线,通常用来分隔内容 <!DOCTYPE html> <html lang="en&q ...

  8. 20170712 SQL Server 日志文件收索

    -- 1 日志文件增长过快,未进行任务计划截断备份 造成文件过大199G 左右,而可用空间不足8% -- 2 日志备份之前,需要一次完整备份 再进行截断备份 出现可用空间99% 此时可以选择收索数据库 ...

  9. javascript篇-知道value值,返回对象中的key值

    前提是,value值是唯一的,业务中有这样一个需求,代码如下:

  10. 关于spark的mllib学习总结(Java版)

    本篇博客主要讲述如何利用spark的mliib构建机器学习模型并预测新的数据,具体的流程如下图所示: 加载数据 对于数据的加载或保存,mllib提供了MLUtils包,其作用是Helper metho ...