logistic distribution

设X是连续随机变量,X服从逻辑斯谛分布是指X具有下列分布函数和密度函数:


式中,μ为位置参数,γ>0为形状参数。

密度函数是脉冲函数

分布函数是一条Sigmoid曲线(sigmoid curve)即为阶跃函数


 

 

二项逻辑斯谛回归模型

二项逻辑斯谛回归模型是如下的条件概率分布


x∊Rn是输入,Y∊{0,1}是输出,w∊Rn和b∊R是参数,

w称为权值向量,b称为偏置,w·x为w和x的内积。

可以求得P(Y=1|x)和P(Y=0|x)。

逻辑斯谛回归比较两个条件概率值的大小,将实例x分到概率值较大的那一类。

定义几率(0dds):该事件发生的概率与该事件不发生的概率的比值

引申出log odds:

对于logistic regression而言,log odds如下:

的对数几率是输入x的线性函数。

的对数几率是由输入x的线性函数表示的模型,即LR模型。

 

LR模型参数估计

可以应用极大似然估计法估计模型参数

对L(w)求极大值,得到w的估计值。

问题就变成了以对数似然函数为目标函数的最优化问题。

LR学习中通常采用的方法是梯度下降法及拟牛顿法。

 

 

最大熵模型

最大熵原理认为,学习概率模型时,在所有可能的概率模型(分布)中,

熵最大的模型是最好的模型。通常用约束条件来确定概率模型的集合,

所以,最大熵原理也可以表述为在满足约束条件的模型集合中选取熵最大的模型。

X的概率分布是P(X),则其熵

|X|是X的取值个数,当且仅当X的分布是均匀分布时右边的等号成立。

这就是说,当X服从均匀分布时,熵最大

 

直观地,最大熵原理认为要选择的概率模型首先必须满足已有的事实,

即约束条件。在没有更多信息的情况下,那些不确定的部分都是"等可能的"。

最大熵原理通过熵的最大化来表示等可能性。"等可能"不容易操作,

而熵则是一个可优化的数值指标。

 

最大熵模型的定义

给定训练数据集(传统训练集)

可以确定

联合分布P(X,Y)的经验分布

边缘分布P(X)的经验分布

v(X=x,Y=y)表示训练数据中样本(X,Y)出现的频数

v(X=x)表示训练数据中输入x出现的频数,N表示训练样本容量。

特征函数f(X,Y)关于经验分布p(X,Y)的期望

特征函数f(X,Y)关于模型P(Y|X)与经验分布

如果模型能够获取训练数据中的信息,那么就可以假设这两个期望值相等

作为模型学习的约束条件。假如有n个特征函数fi(X,Y),i=1,2,…,n,那么就有n个约束条件

 

最大熵模型

假设满足所有约束条件的模型集合为

定义在条件概率分布P(Y|X)上的条件熵

则模型集合C中条件熵H(P)最大的模型称为最大熵模型

 

最大熵模型的学习

最大熵模型的学习过程就是求解最大熵模型的过程。

最大熵模型的学习可以形式化为约束最优化问题。

数据集T={(x1,y1),(x2,y2),…,(xN,yN)}以及

特征函数fi(X,Y),i=1,2,…,n,最大熵模型的学习等价于约束最优化问题:

将最大化改为最小化:

将约束最优化的原始问题转换为无约束最优化的对偶问题。

通过求解对偶问题求解原始问题。

 

引进拉格朗日乘子w0,w1,w2,…,wn,定义拉格朗日函数L(P,w):

原始问题:

对偶问题:

由于拉格朗日函数L(P,w)是P的凸函数

原始问题(6.18)的解与对偶问题(6.19)的解是等价的。

首先是内部的极小化问题:

同时,记Pw

求L(P,w)对P(Y|X)的偏导数:

得:

由于:

得:

其中:

Zw(x)称为规范化因子;fi(X,Y)是特征函数;wi是特征的权值。

表示的模型Pw=Pw(Y|X)就是最大熵模型。

然后求解对偶问题外部的极大化问题:

也就是说,最大熵模型的学习归结为对偶函数的极大化。

 

下面证明对偶函数的极大化等价于最大熵模型的极大似然估计。

已知训练数据的经验概率分布

条件概率分布P(Y|X)的对数似然函数表示为

当条件概率分布P(Y|X)是最大熵模型,

再看对偶函数

于是证明了最大熵模型学习中的对偶函数极大化等价于最大熵模型的极大似然估计

最大熵模型的学习问题转换为具体求解对数似然函数极大化或对偶函数极大化的问题

更为一般形式的:

其中,

最大熵模型与LR模型有类似的形式,它们又称为对数线性模型(log linear model)

模型学习就是在给定的训练数据条件下对模型进行极大似然估计或正则化的极大似然估计

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


 

统计学习方法笔记 Logistic regression的更多相关文章

  1. [Machine Learning]学习笔记-Logistic Regression

    [Machine Learning]学习笔记-Logistic Regression 模型-二分类任务 Logistic regression,亦称logtic regression,翻译为" ...

  2. 统计学习方法6—logistic回归和最大熵模型

    目录 logistic回归和最大熵模型 1. logistic回归模型 1.1 logistic分布 1.2 二项logistic回归模型 1.3 模型参数估计 2. 最大熵模型 2.1 最大熵原理 ...

  3. 统计学习方法笔记--EM算法--三硬币例子补充

    本文,意在说明<统计学习方法>第九章EM算法的三硬币例子,公式(9.5-9.6如何而来) 下面是(公式9.5-9.8)的说明, 本人水平有限,怀着分享学习的态度发表此文,欢迎大家批评,交流 ...

  4. 统计学习方法笔记 -- KNN

    K近邻法(K-nearest neighbor,k-NN),这里只讨论基于knn的分类问题,1968年由Cover和Hart提出,属于判别模型 K近邻法不具有显式的学习过程,算法比较简单,每次分类都是 ...

  5. Python机器学习笔记 Logistic Regression

    Logistic回归公式推导和代码实现 1,引言 logistic回归是机器学习中最常用最经典的分类方法之一,有人称之为逻辑回归或者逻辑斯蒂回归.虽然他称为回归模型,但是却处理的是分类问题,这主要是因 ...

  6. Andrew Ng机器学习公开课笔记 -- Logistic Regression

    网易公开课,第3,4课 notes,http://cs229.stanford.edu/notes/cs229-notes1.pdf 前面讨论了线性回归问题, 符合高斯分布,使用最小二乘来作为损失函数 ...

  7. 统计学习方法笔记(KNN)

    k近邻法(k-nearest neighbor,k-NN) 输入:实例的特征向量,对应于特征空间的点:输出:实例的类别,可以取多类. 分类时,根据其k个最近邻的训练实例的类别,通过多数表决等方式进行预 ...

  8. 统计学习方法笔记 -- Boosting方法

    AdaBoost算法 基本思想是,对于一个复杂的问题,单独用一个分类算法判断比较困难,那么我们就用一组分类器来进行综合判断,得到结果,"三个臭皮匠顶一个诸葛亮" 专业的说法, 强可 ...

  9. 李航-统计学习方法-笔记-3:KNN

    KNN算法 基本模型:给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的k个实例.这k个实例的多数属于某个类,就把输入实例分为这个类. KNN没有显式的学习过程. KNN使用的模型 ...

随机推荐

  1. windows下用一台机器配置分布式redis(主从服务器)

    目录1.Replication的工作原理2.如何配置Redis主从复制 1.Replication的工作原理在Slave启动并连接到Master之后,它将主动发送一条SYNC命令.此后Master将启 ...

  2. REST风格URL

    以前就是觉得 /nowamagic/article/article_id 这样的地址非常的漂亮,但是那只是表象罢了,了解深入以后,发现必须有一个客户端的Ajax Engine和Server端的服务配合 ...

  3. delphi 常用的将窗口置前的函数

    function BringWindowToTopEx(hWnd: HWND): Boolean;begin if IsIconic(hWnd) then ShowWindow(hWnd, SW_RE ...

  4. 7. Reverse Words in a String

    题目: Given an input string, reverse the string word by word. For example,Given s = "the sky is b ...

  5. 13. Reorder List

    Reorder List Given a singly linked list L: L0→L1→…→Ln-1→Ln, reorder it to: L0→Ln→L1→Ln-1→L2→Ln-2→… Y ...

  6. Monty Hall Problem的一个图解,感觉不错

    从Coursera.org上的台大概率课讨论组里拿来的 如果不转换,选中汽车的概率是1/3,非常显然. 但转换后选中汽车的概率变成2/3就有点反直觉了,并不是太容易想明白. 因为转换其实有4种:汽车- ...

  7. OS X 禁止Android File Transfer自动启动

    操作步骤 关闭Android File Manager 在Activity Manager中退出Android File Manager Agent进程 在Applications中,将Android ...

  8. VBA_Excel_教程:变量,数组

    Sub testVar() '变量 Dim strT1 As String strT1 = "A" '常量[加不加类型都可以] Const strT2 As String = &q ...

  9. (知识分享)软硬件调试九法:第九条规则 如果你不修复一个bug,它将永远 存在

    1.查证问题确已被修复 如果遵循了“制造失败”这条规则,就知道如何验证你确实修复了问题.无论问题和修复看起来多么明显,你都无法保证修复是有效的,直到做了测试并验证. 2.查证确实你的修复措施解决了问题 ...

  10. zookeeper节点失效重连机制

    http://www.blogjava.net/xylz/archive/2011/12/05/365578.html http://blog.csdn.net/tswisdom/article/de ...