声明:

1,本篇为个人对《2012.李航.统计学习方法.pdf》的学习总结,不得用作商用。欢迎转载,但请注明出处(即:本帖地址)。

2,因为本人在学习初始时有非常多数学知识都已忘记。所以为了弄懂当中的内容查阅了非常多资料,所以里面应该会有引用其它帖子的小部分内容,假设原作者看到能够私信我,我会将您的帖子的地址付到以下。

3。假设有内容错误或不准确欢迎大家指正。

4。假设能帮到你,那真是太好了。

IIS的推导过程

IIS是一种最大熵学习模型的最优化算法。其推导步骤例如以下:

目标是通过极大似然预计学习模型參数求对数似然函数的极大值

IIS的想法是:如果最大熵模型当前的參数向量是λ = (λ1, λ2, …, λn)T,我们希望找到一个新的參数向量λ +
δ= (λ1+δ1, λ2+δ2, …, λn+δn)T。使得模型的对数似然函数值增大。假设能有这样一种參数向量更新的方法F:λ ->λ+δ,那么就能够反复使用这一方法,直至找到对数似然函数的最大值。

对于给定的经验分布,模型參数从λ到λ+δ,对数似然函数的该变量是

PS:上面 >= 的推导是依据不定时:-loga >= 1 - a, a > 0

将上述求得的结果(最后一行)记为A(δ| λ),于是有:

L( λ+ δ ) – L( λ ) >= A(δ | λ)

为了进一步减少这个下界,即缩小A(δ | λ)。引入一个变量:

由于fi是二值函数,故f#(x,y)表示的是全部特征(x, y)出现的次数,然后利用Jason不等式,可得:

我们把上述式子求得的A(δ | λ)的下界记为B(δ | λ),即:

相当于B(δ | λ)是对数似然函数添加量的一个新的下界,可记作:L(λ+δ)-L(λ)  >= B(δ | λ)。

接下来,对B(δ| λ)求偏导,得:

此时得到的偏导结果仅仅含δ,除δ之外不再含其他变量,令其为0,可得:

从而求得δ,问题得解。

IIS算法描写叙述

         输入:

特征函数f1, f2, …,fn;经验分布,模型Pλ(y|x)

         输出:

最优參数值λi*。最优模型Pλ

         解:

1,对全部i∈{1, 2, …, n}。取初值λi = 0

2,对每一i∈{1, 2, …, n}:

a)令δi是例如以下方程(这里将其称作方程一)

的解,这里:

b)更新λi的值:λi <- λi + δi

3,假设不是全部λi都收敛,则反复步骤2。

这一算法的关键步骤是a)。即求解a)中方程的δi。

假设f#(x, y) 是常数。即对不论什么x, y。有f#(x,y) = M,那么δi能够显示的表示成:

假设f#(x, y) 不是常数,那么必须通过数值计算求δi,而简单有效的方法是牛顿法。以g(δi) = 0,表示上面的方程一,牛顿法通过迭代求的δi,使得g(δi*)= 0。迭代公式是:

求得了δ。便相当于求得权值λ,终于将λ 回代到下式中:

即得到最大熵模型的最优预计。

參考:

http://blog.csdn.net/v_july_v/article/details/40508465?

utm_source=tuicool&utm_medium=referral

逻辑斯蒂回归3 -- 最大熵模型之改进的迭代尺度法(IIS)的更多相关文章

  1. 【分类器】感知机+线性回归+逻辑斯蒂回归+softmax回归

    一.感知机     详细参考:https://blog.csdn.net/wodeai1235/article/details/54755735 1.模型和图像: 2.数学定义推导和优化: 3.流程 ...

  2. 【转】机器学习笔记之(3)——Logistic回归(逻辑斯蒂回归)

    原文链接:https://blog.csdn.net/gwplovekimi/article/details/80288964 本博文为逻辑斯特回归的学习笔记.由于仅仅是学习笔记,水平有限,还望广大读 ...

  3. 机器学习之LinearRegression与Logistic Regression逻辑斯蒂回归(三)

    一 评价尺度 sklearn包含四种评价尺度 1 均方差(mean-squared-error) 2 平均绝对值误差(mean_absolute_error) 3 可释方差得分(explained_v ...

  4. spark机器学习从0到1逻辑斯蒂回归之(四)

      逻辑斯蒂回归 一.概念 逻辑斯蒂回归(logistic regression)是统计学习中的经典分类方法,属于对数线性模型.logistic回归的因变量可以是二分类的,也可以是多分类的.logis ...

  5. python机器学习实现逻辑斯蒂回归

    逻辑斯蒂回归 关注公众号"轻松学编程"了解更多. [关键词]Logistics函数,最大似然估计,梯度下降法 1.Logistics回归的原理 利用Logistics回归进行分类的 ...

  6. 【项目实战】pytorch实现逻辑斯蒂回归

    视频指导:https://www.bilibili.com/video/BV1Y7411d7Ys?p=6 一些数据集 在pytorch框架下,里面面有配套的数据集,pytorch里面有一个torchv ...

  7. [置顶] 局部加权回归、最小二乘的概率解释、逻辑斯蒂回归、感知器算法——斯坦福ML公开课笔记3

    转载请注明:http://blog.csdn.net/xinzhangyanxiang/article/details/9113681 最近在看Ng的机器学习公开课,Ng的讲法循循善诱,感觉提高了不少 ...

  8. 【TensorFlow入门完全指南】模型篇·逻辑斯蒂回归模型

    import库,加载mnist数据集. 设置学习率,迭代次数,batch并行计算数量,以及log显示. 这里设置了占位符,输入是batch * 784的矩阵,由于是并行计算,所以None实际上代表并行 ...

  9. 逻辑斯蒂回归(Logistic Regression)

    逻辑回归名字比较古怪,看上去是回归,却是一个简单的二分类模型. 逻辑回归的模型是如下形式: 其中x是features,θ是feature的权重,σ是sigmoid函数.将θ0视为θ0*x0(x0取值为 ...

随机推荐

  1. GROUPPING和ROLLUP的基本知识

    1.GROUPPING 是一个聚合函数,它产生一个附加的列,当用 CUBE 或 ROLLUP 运算符添加行时,附加的列输出值为1,当所添加的行不是由 CUBE 或 ROLLUP 产生时,附加列值为0. ...

  2. 联想Thinkpad L460安装Win7 64位

    单位发了L460,自带的系统为win10,但是涉及到很多工作以及客户都是在win7环境下,所以必须安装win7的系统,经过一番折腾,终于装好了. 主要顺序如下: 1,制作WINPE启动盘,如大白菜,老 ...

  3. Sequence(优先队列)

    http://poj.org/problem?id=2442 题意:给你n*m的矩阵,然后每行取一个元素,组成一个包含n个元素的序列,一共有n^m种序列, 让你求出序列和最小的前n个序列的序列和. # ...

  4. Appium - xpath

    基本属性定位 以淘宝app为例,定位左上角扫一扫按钮 1.可以通过text文本定位到 //*[@text='text文本属性'] # 定位text driver.find_element_by_xpa ...

  5. Python 36 死锁现象和递归锁、信号量、Event事件、线程queue

    一:死锁现象和递归锁 所谓死锁: 是指两个或两个以上的进程或线程在执行过程中,因争夺资源而造成的一种互相等待的现象,若无外力作用,它们都将无法推进下去.此时称系统处于死锁状态或系统产生了死锁,这些永远 ...

  6. 【DP、线段树优化】琪露诺

    跟去年(2017)PJ第四题几乎是一样的?/吐血 DP方程可以很简单的推出来,f[i]=max{f[k]}+a[i] 然而这样做是O(n^2)的 看一下数据,200000的话要不nlogn 要不n 由 ...

  7. ROS-TF-新建坐标系

    前言:在前面的试验中,我们分别有wolrd,turtle1和turtle2三个坐标系,并且world是turtle1和turtle2的父坐标系.现在我们来新建一个自定义坐标系,让turtle2跟着新的 ...

  8. BZOJ 1583

    思路: 维护两个指针pointer_1和pointer_2 代表用算法一走到的位置 和算法2走到的位置 若 算法一<算法2 数组后面就插入算法一的解  pointer_1++ (记得判重) (这 ...

  9. Mysql 时间、字符串、时间戳互转

    时间转字符串 select date_format(now(),'%Y-%m-%d'); 时间转时间戳 select UNIX_TIMESTAMP(now()); 时间戳转时间 ) :: 时间戳转字符 ...

  10. springboot 的一般配置

    import javax.servlet.Filter; import org.springframework.boot.SpringApplication; import org.springfra ...