Viterbi Algorithm

前面我们提到过,HMM的第二类问题是利用HMM模型和可观察序列寻找最有可能生成该观察序列的隐藏变量的序列。简单来说,第一类问题是通过模型计算生成观察序列的概率,而第二类问题通过观察序列计算最有可能生成该观察序列的的隐藏变量的序列。我们还是先来看如下一张图:

我们希望找到生成该观察序列的概率最高的一个隐藏变量的序列。换句话说,我们想要最大化如下的式子:

maxPr(observed sequence | hidden state combination)

一种简单直观的方法是将所有可能的隐藏变量的序列全部列出,然后求出它们生成可观察序列的概率,然后挑出概率最大的一个隐藏变量序列,这种穷举法无疑是非常低效而且耗时的。与之前介绍的forward算法类似,我们可以借助状态转换矩阵以及confusion矩阵来减低运算的复杂度。

我们还是利用递归的方式去选择这样一条最优的隐藏变量序列,我们先定义一个局部概率Pσ,它表示某一路径到达某一中间状态的概率,这里的局部概率与forward算法里面提到的局部概率有点不一样,forward算法里的局部概率是所有路径到达某一中间状态的概率之和,而这里的局部概率,表示一条最优路径到达某一中间状态的概率。先来看如下的一张图:

对于上图所示的各个路径,无论是到达中间时序的状态,还是到达最终时序的状态,都存在一条最优的路径,比如下图所示分别给出了到达最终时序的三个状态的路径,我们把这些路径称为局部最佳路径,每一个这样的局部最佳路径都有一个概率,称为局部概率,这个定义与forward算法里的局部概率不一样,这里的局部概率表示最佳路径的局部概率。

因此,Pσ(i,t),表示所有在t时刻到达状态i的路径中,最佳的一条局部路径的概率,很显然,对于任何的t,i这样的最佳路径和最大局部概率都是存在的。因此在最终时刻t=T,每一个状态都应该有一个局部最佳路径和最大局部概率,那么全局最佳路径就是选择局部概率最大所对应的那条路径。

对应初始状态的局部概率,其定义和在forward算法中的一样,由初始概率和confusion矩阵决定,如下式所示:

Pσ(i,t=1)=π(i)bi,t=1

我们接下来将要计算t时刻的局部概率,同样地利用递归的方法,我们可以通过t−1时刻的局部概率计算t时刻的局部概率,我们先看下面的一张图。为了找到在t时刻到达X状态的最佳路径,我们知道,只有三条路径可以选择,就是从t−1时刻的状态A,B,C中的一个选择一条最佳路径,

之前我们介绍过马尔科夫假设,即一个状态发生的概率只与之前的状态有关,而且对于一阶的马尔科夫过程,当前状态只和前一个状态有关,如果我们要计算状态A到状态X的概率,可以由下式表示:

Pr(most probable path to A)⋅Pr(X|A)⋅Pr(observation|X)

因此,t时刻到达状态X的最佳路径,应该满足如下的表达式:

Pr(Xt)=maxi=A,B,CPr(it−1)×Pr(X|i)×Pr(observation|X)

上式右边的第一项是t−1时刻的局部概率,第二项由状态转换矩阵决定,第三项由confusion矩阵决定。因此,在t时刻给定观察变量,而推出隐藏变量的状态为i的概率为:

Pσ(i,t)=maxj(Pσ(j,t−1)⋅aji⋅bi,t)

现在我们已经知道如何求解到达隐藏变量中间状态和最终状态的局部概率Pσ(i,t), 但是,我们的目标是通过观察变量的一个序列找到对应的最有可能生成该观察序列的一个隐藏变量序列。

我们已经知道,为了计算时刻t的某一状态的局部概率,我们只要知道t−1时刻的局部概率,一旦计算出局部概率,我们就能确定系统t−1时刻最有可能的状态,我们可以用一个表达式来表示这个选择的过程:

ϕ(i,t)=argmaxj(Pσ(j,t−1)⋅aji)

注意到这个表达式和计算局部概率的表达式很像,唯一的区别在于这个表达式没有用到confusion矩阵,也就是没有隐藏变量与观察变量的转换概率。因为这里要找的是隐藏变量的前一个状态,所以与观察变量没有关系。通过这个表达式,我们可以确定到达当前状态i的前一状态j。

下面,我们对这个算法做一个总结,对于有n个隐藏状态的HMM模型,对于每个隐藏状态i,i=1,2,...n,假设存在一组时序长度为T的观察序列:

Xi=(Xi,1,Xi,2,...Xi,T)

隐藏状态的初始局部概率,即t=1时刻的概率,Pσ(i,t=1),可以由转换矩阵和confusion矩阵以及观察序列和隐藏状态的初始概率得到。对于t=2,3,...T以及

i=1,2,...n。我们有:

Pσ(i,t)=maxj(Pσ(j,t−1)⋅aji⋅bi,t)ϕ(i,t)=argmaxj(Pσ(j,t−1)⋅aji)

假设

iT=argmax(Pσ(i,T))

我们可以知道在t=T时刻,即最终时刻,哪个状态的局部概率最大。对于t=T−1,...1,我们有:

it=ϕ(it+1,t+1)

所以,通过上式进行回溯,一旦回到初始时刻,那么序列i1,i2,...iT记录的就是最有可能生成观察序列的一个隐藏变量序列。

最后,我们做个小结,对于一个特定的HMM模型,Viterbi Algorithm用来寻找最有可能生成一组观察变量序列的隐藏变量序列,这个算法记录了每一个隐藏状态的局部概率Pσ以及每一个隐藏状态的回溯点ϕ,隐藏状态的局部概率就是通过回溯点到达该状态的概率。

Forward-backward algorithm

前面我们介绍了两类问题,并且介绍了相应的两种算法。第一类问题是用来评估模型的,我们介绍了forward算法;第二类问题是寻找最佳的隐藏变量序列的,我们利用的

是Viterbi算法,这两类问题都要用到已知的模型,转换矩阵,confusion矩阵,观察变量的序列等等。而第三类问题比前两类要复杂地多,它们没有现成的模型,我们需要

估计一个可行的模型,这属于学习问题,这类问题要用Forward-backward算法来解决,这个算法要比前面介绍的两种算法更加复杂,这里就不再详细介绍了。有兴趣的可以

参考下面的文献:

L R Rabiner and B H Juang, `An introduction to HMMs’, IEEE ASSP Magazine, 3, 4-16.

参考来源:

http://www.comp.leeds.ac.uk/roger/HiddenMarkovModels/html_dev/main.html

机器学习 Hidden Markov Models 3的更多相关文章

  1. 机器学习 Hidden Markov Models 1

    Introduction 通常,我们对发生在时间域上的事件希望可以找到合适的模式来描述.考虑下面一个简单的例子,比如有人利用海草来预测天气,民谣告诉我们说,湿漉漉的海草意味着会下雨,而干燥的海草意味着 ...

  2. 机器学习 Hidden Markov Models 2

    Hidden Markov Models 下面我们给出Hidden Markov Models(HMM)的定义,一个HMM包含以下几个要素: ∏=(πi)表示初始状态的向量.A={aij}状态转换矩阵 ...

  3. 隐马尔科夫模型(Hidden Markov Models)

    链接汇总 http://www.csie.ntnu.edu.tw/~u91029/HiddenMarkovModel.html 演算法笔记 http://read.pudn.com/downloads ...

  4. PRML读书会第十三章 Sequential Data(Hidden Markov Models,HMM)

    主讲人 张巍 (新浪微博: @张巍_ISCAS) 软件所-张巍<zh3f@qq.com> 19:01:27 我们开始吧,十三章是关于序列数据,现实中很多数据是有前后关系的,例如语音或者DN ...

  5. 隐马尔科夫模型(Hidden Markov Models) 系列之三

    转自:http://blog.csdn.net/eaglex/article/details/6418219 隐马尔科夫模型(Hidden Markov Models) 定义 隐马尔科夫模型可以用一个 ...

  6. [Bayesian] “我是bayesian我怕谁”系列 - Markov and Hidden Markov Models

    循序渐进的学习步骤是: Markov Chain --> Hidden Markov Chain --> Kalman Filter --> Particle Filter Mark ...

  7. Hidden Markov Models笔记

    Andrew Ng CS229 讲义: https://pan.baidu.com/s/12zMYBY1NLzkluHNeMNO6MQ HMM模型常用于NLP.语音等领域. 马尔科夫模型(Markov ...

  8. 隐马尔科夫模型(Hidden Markov Models) 系列之五

    转自:http://blog.csdn.net/eaglex/article/details/6458541 维特比算法(Viterbi Algorithm) 找到可能性最大的隐藏序列 通常我们都有一 ...

  9. 隐马尔科夫模型(Hidden Markov Models) 系列之四

    转自:http://blog.csdn.net/eaglex/article/details/6430389 前向算法(Forward Algorithm) 一.如果计算一个可观察序列的概率?   1 ...

随机推荐

  1. codeforces 1051 F

    多源点最短路. 但是有限制,m - n <= 20,边数 - 点数 <= 20, 所以这个图非常的稀疏. 任意提取出一个生成树出来,LCA处理任意两点最短路. 然后再去遍历那些多余出来的点 ...

  2. Google的JSON风格指南

    官网:https://google.github.io/styleguide/jsoncstyleguide.xml 中文版:https://github.com/darcyliu/google-st ...

  3. es中插入数据

    es中插入数据 学习了:https://www.imooc.com/video/15769/0 分为指定Id和自动生成Id两种: 1,指定Id使用PUT操作 PUT http://127.0.0.1: ...

  4. booth乘法器原理

    在微处理器芯片中,乘法器是进行数字信号处理的核心,同一时候也是微处理器中进行数据处理的wd=%E5%85%B3%E9%94%AE%E9%83%A8%E4%BB%B6&hl_tag=textli ...

  5. Intel Edison —— 控制GPIO接口,网页显示传感器数值

    前言 原创文章,转载引用务必注明链接. 因为是使用Typora(markdown)写好然后复制到论坛的,推荐直接访问我的网站以获得更好地阅读体验. Intel XDK IoT 开发环境很久之前就上手了 ...

  6. 第04章-VTK基础(3)

    [译者:这个系列教程是以Kitware公司出版的<VTK User's Guide -11th edition>一书作的中文翻译(出版时间2010年,ISBN: 978-1-930934- ...

  7. Linux/UNIX之文件和文件夹(2)

    文件和文件夹(2) link.ulink.remove和rename函数 #include <unistd.h> int link(const char *oldpath, const c ...

  8. AngularJs概述

  9. php使用魔法函数和不使用魔法函数比较

    /** * use magic 0.31868386268616s * not use magic 0.11876797676086s */ class Test { private $varstr ...

  10. python socket初探

    先看一段代码 import socket import sys import re def getServerContent(url): host_ip = socket.gethostbyname( ...