线性回归(Linear Regression) 什么是回归? 给定一些数据,{(x1,y1),(x2,y2)…(xn,yn) },x的值来预测y的值,通常地,y的值是连续的就是回归问题,y的值是离散的就叫分类问题. 高尔顿的发现,身高的例子就是回归的典型模型. 回归分为线性回归(Linear Regression)和Logistic 回归. 线性回归可以对样本是线性的,也可以对样本是非线性的,只要对参数是线性的就可以,所以线性回归能得到曲线. 线性回归的目标函数? (1) 为了防止过拟合,将目标…
本次回归章节的思维导图版总结已经总结完毕,但自我感觉不甚理想.不知道是模型太简单还是由于自己本身的原因,总结出来的东西感觉很少,好像知识点都覆盖上了,但乍一看,好像又什么都没有.不管怎样,算是一次尝试吧,慢慢地再来改进.在这里再梳理一下吧! 线性回归(Linear Regression) 什么是回归? 给定一些数据,{(x1,y1),(x2,y2)…(xn,yn) },x的值来预测y的值,通常地,y的值是连续的就是回归问题,y的值是离散的就叫分类问题. 高尔顿的发现,身高的例子就是回归的典型模型…
本系列文章允许转载,转载请保留全文! [请先阅读][说明&总目录]http://www.cnblogs.com/tbcaaa8/p/4415055.html 1. 泊松回归 (Poisson Regression) 在生活中,经常会遇到一类问题需要对一段时间内某一小概率事件的发生次数建模,例如癌症.火灾等. 假设向量x表示引起这一事件发生的因素,向量θ表示因素的权重,则使用hθ(x)=exp(θTx)表示事件发生次数的期望.θTx位于指数位置,意味着其每增加1个单位,将导至事件发生次数的期望值翻…
logistic回归 在 logistic 回归中,我们的训练集由  个已标记的样本构成:.由于 logistic 回归是针对二分类问题的,因此类标记 . 假设函数(hypothesis function):  代价函数(损失函数): 我们的目标是训练模型参数,使其能够最小化代价函数. 假设函数就相当于我们在线性回归中要拟合的直线函数. softmax回归 在 softmax回归中,我们的训练集由  个已标记的样本构成:.由于softmax回归是针对多分类问题(相对于 logistic 回归针对…
1.广义线性模型 2.逻辑回归 3.softmax回归…
本文简单整理了以下内容: (一)线性回归 (二)二分类:二项Logistic回归 (三)多分类:Softmax回归 (四)广义线性模型 闲话:二项Logistic回归是我去年入门机器学习时学的第一个模型(忘记了为什么看完<统计学习方法>第一章之后直接就跳去了第六章,好像是对"逻辑斯蒂"这个名字很感兴趣?...),对照<机器学习实战>写了几行代码敲了一个toy版本,当时觉得还是挺有意思的.我觉得这个模型很适合用来入门(但是必须注意这个模型有很多很多很多很多可以展开…
1.什么是回归?  是一种监督学习方式,用于预测输入变量和输出变量之间的关系,等价于函数拟合,选择一条函数曲线使其更好的拟合已知数据且更好的预测未知数据. 2.线性回归  于一个一般的线性模型而言,其目标就是要建立输入变量和输出变量之间的回归模型.该模型是既是参数的线性组合,同时也是输入变量的线性组合. 最小二乘法,代价函数(平方误差代价函数,加1/2是为了方便求导):  这里使用基函数(basis function)对上面的线性模型进行拓展,即:线性回归模型是一组输入变量x的非线性基函数的线性…
UFLDL Tutorial 翻译系列:http://deeplearning.stanford.edu/wiki/index.php/UFLDL_Tutorial 第四章:SoftMax回归 简介:见 AI : 一种现代方法.Chapter21. Reinforce Learning p.703 Softmax函数为多个变量的Logitic函数的泛化. 为什么使用SoftMax方法:因为反向传播和更新方法简单,更直接且直观. 1.先做练习 Exercise:Softmax Regression…
LR是一个传统的二分类模型,它也可以用于多分类任务,其基本思想是:将多分类任务拆分成若干个二分类任务,然后对每个二分类任务训练一个模型,最后将多个模型的结果进行集成以获得最终的分类结果.一般来说,可以采取的拆分策略有: one vs one策略 假设我们有N个类别,该策略基本思想就是不同类别两两之间训练一个分类器,这时我们一共会训练出种不同的分类器.在预测时,我们将样本提交给所有的分类器,一共会获得N(N+1)个结果,最终结果通过投票产生. one vs all策略 该策略基本思想就是将第i种类…
介绍softmax之前先讲讲sigmoid: 逻辑回归模型常用的函数:sigmoid函数(用来做二分类) 表达式:f(x)=L/(1+exp-k(x-x0)) 其图像: 本质:将一个真值映射到(0,1)之间 softmax函数(用作多分类) 形式: 本质:把一个k维的向量映射为另一个K维向量(该向量元素都在0-1之间),然后可以根据每一个向量元素的大小进行多分类的任务. 来自链接(http://ufldl.stanford.edu/wiki/index.php/Softmax回归) softma…
Softmax回归   1. softmax回归模型 softmax回归模型是logistic回归模型在多分类问题上的扩展(logistic回归解决的是二分类问题). 对于训练集,有. 对于给定的测试输入,我们相拥假设函数针对每一个类别j估算出概率值.也就是说,我们估计得每一种分类结果出现的概率.因此我们的假设函数将要输入一个维的向量来表示这个估计得概率值.假设函数形式如下: 其中是模型的参数.这一项对概率分布进行归一化,舍得所有概率之和为1. softmax回归的代价函数: 上述公式是logi…
本系列文章允许转载,转载请保留全文! [请先阅读][说明&总目录]http://www.cnblogs.com/tbcaaa8/p/4415055.html 1. 指数分布族简介 之前的文章分别介绍了因变量服从高斯分布.伯努利分布.泊松分布.多项分布时,与之对应的回归模型,本文章将阐释这些模型的共同点,并加以推广. 首先非正式地给出指数分布族的定义: 定义 如果变量y的分布可以被表示为p(y;η)=b(y)exp(ηTT(y)-a(η))的形式(η为分布的参数),则称y服从指数分布族 萌萌哒博主…
广义线性模型 前面我们举了回归和分类得到例子.在回归的例子中,$y \mid x;\theta \sim  N(u,\sigma ^{2})$,在分类例子中,$y\mid x;\theta \sim  Bbernoulli(\phi)$ 广义线性模型是基于指数函数族的,指数函数族原型为: $p(y;\eta) = b(y)exp(\eta^{T}T(y)-a(\eta))$ $\eta$为自然参数,$T(y)$为充分统计量,一般情况下$T(y)=y$.选择固定的T,a,b定义一个分布,参数为$\…
在线性回归问题中,我们假设,而在分类问题中,我们假设,它们都是广义线性模型的例子,而广义线性模型就是把自变量的线性预测函数当作因变量的估计值.很多模型都是基于广义线性模型的,例如,传统的线性回归模型,最大熵模型,Logistic回归,softmax回归. 指数分布族 在了解广义线性模型之前,先了解一下指数分布族(the exponential family) 指数分布族原型如下 如果一个分布可以用上面形式在表示,那么这个分布就属于指数分布族,首先来定义一下上面形式的符号: η:分布的自然参数(n…
引言:通过高斯模型得到最小二乘法(线性回归),即:      通过伯努利模型得到逻辑回归,即:      这些模型都可以通过广义线性模型得到.广义线性模型是把自变量的线性预测函数当作因变量的估计值.在机器学习中,有很多模型都是基于广义线性模型的,比如传统的线性回归模型,最大熵模型,Logistic回归,softmax回归,等等.今天主要来学习如何来针对某类型的分布建立相应的广义线性模型. 广义线性模型 广义线性模型:广义线性模型是基于指数分布族(Exponential Family),而指数分布…
一.广义线性模型概念 在讨论广义线性模型之前,先回顾一下基本线性模型,也就是线性回归. 在线性回归模型中的假设中,有两点需要提出: (1)假设因变量服从高斯分布:$Y={{\theta }^{T}}x+\xi $,其中误差项$\xi \sim N(0,{{\sigma }^{2}})$,那么因变量$Y\sim N({{\theta }^{T}}x,{{\sigma }^{2}})$. (2)模型预测的输出为$E[Y]$,根据$Y={{\theta }^{T}}x+\xi $,$E[Y]=E[{{…
本文对应<R语言实战>第13章:广义线性模型 广义线性模型扩展了线性模型的框架,包含了非正态因变量的分析. 两种流行模型:Logistic回归(因变量为类别型)和泊松回归(因变量为计数型) glm()函数的参数 分布族 默认的连接函数 binomial (link = “logit”) gaussian (link = “identity”) gamma (link = “inverse”) inverse.gaussian (link = “1/mu^2”) poisson (link =…
1 问题来源 记得一开始学逻辑回归时候也不知道当时怎么想得,很自然就接受了逻辑回归的决策函数--sigmod函数: 与此同时,有些书上直接给出了该函数与将 $y$ 视为类后验概率估计 $p(y=1|x)$ 等价,即 并给出了二分类(标签 $yin(0,1)$)情况下的判别方式: 但今天再回过头看的时候,突然就不理解了,一个函数值是怎么和一个概率联系起来了呢?有些人解释说因为 $h_{theta}(x)$ 范围在0~1之间啊,可是数值在此之间还是没说明白和概率究竟有什么关系.所以,前几天看了一些资…
一.Logistic回归 Logistic回归(Logistic Regression,简称LR)是一种常用的处理二类分类问题的模型. 在二类分类问题中,把因变量y可能属于的两个类分别称为负类和正类,则因变量y∈{0, 1},其中0表示负类,1表示正类.线性回归的输出值在负无穷到正无穷的范围上,不太好解决这个问题.于是我们引入非线性变换,把线性回归的输出值压缩到(0, 1)之间,那就成了Logistic回归,使得≥0.5时,预测y=1,而当<0.5时,预测y=0.Logistic回归的名字中尽管…
一.感知机     详细参考:https://blog.csdn.net/wodeai1235/article/details/54755735 1.模型和图像: 2.数学定义推导和优化: 3.流程 二.线性回归      1.定义及解析解: a=(XTX) -1 XTy,如加2范数约束则解析解为a=(XTX+λI) -1 XTy     2.总结: 速度快,对异常值敏感.可以采用梯度下降法. 三.逻辑斯蒂回归 1.sigmod: 见 https://www.cnblogs.com/Esther…
                                                    大白话5分钟带你走进人工智能-第二十节逻辑回归和Softmax多分类问题(5) 上一节中,我们讲解了逻辑回归的优化,本节的话我们讲解逻辑回归做多分类问题以及传统的多分类问题,我们用什么手段解决. 先看一个场景,假如我们现在的数据集有3个类别,我们想通过逻辑回归建模给它区分出来.但我们知道逻辑回归本质上是区分二分类的算法模型.难道没有解决办法了吗?办法还是有的,既然想分出3类,我们姑且称这3个类…
转自http://ufldl.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%92 简介 在本节中,我们介绍Softmax回归模型,该模型是logistic回归模型在多分类问题上的推广,在多分类问题中,类标签  可以取两个以上的值. Softmax回归模型对于诸如MNIST手写数字分类等问题是很有用的,该问题的目的是辨识10个不同的单个数字.Softmax回归是有监督的,不过后面也会介绍它与深度学习/无监督学习方法的结合.(译者注: MNIS…
转载请注明出处:http://www.cnblogs.com/BYRans/ 多分类问题 在一个多分类问题中,因变量y有k个取值,即.例如在邮件分类问题中,我们要把邮件分为垃圾邮件.个人邮件.工作邮件3类,目标值y是一个有3个取值的离散值.这是一个多分类问题,二分类模型在这里不太适用. 多分类问题符合多项分布.有许多算法可用于解决多分类问题,像决策树.朴素贝叶斯等.这篇文章主要讲解多分类算法中的Softmax回归(Softmax Regression) 推导思路为:首先证明多项分布属于指数分布族…
再谈广义线性模型之前,先来看一下普通线性模型: 普通线性模型的假设主要有以下几点: 1.响应变量Y和误差项ϵ正态性:响应变量Y和误差项ϵ服从正态分布,且ϵ是一个白噪声过程,因而具有零均值,同方差的特性. 2.预测量xi和未知参数βi的非随机性:预测量xi具有非随机性.可测且不存在测量误差:未知参数βi认为是未知但不具随机性的常数,值得注意的是运用最小二乘法或极大似然法解出的未知参数的估计值β^i则具有正态性. 广义线性模型(generalized linear model)正是在普通线性模型的基…
多分类问题 在一个多分类问题中,因变量y有k个取值,即.例如在邮件分类问题中,我们要把邮件分为垃圾邮件.个人邮件.工作邮件3类,目标值y是一个有3个取值的离散值.这是一个多分类问题,二分类模型在这里不太适用. 多分类问题符合多项分布.有许多算法可用于解决多分类问题,像决策树.朴素贝叶斯等.这篇文章主要讲解多分类算法中的Softmax回归(Softmax Regression)  推导思路为:首先证明多项分布属于指数分布族,这样就可以使用广义线性模型来拟合这个多项分布,由广义线性模型推导出的目标函…
考虑一个多分类问题,即预测变量y可以取k个离散值中的任何一个.比如一个邮件分类系统将邮件分为私人邮件,工作邮件和垃圾邮件.由于y仍然是一个离散值,只是相对于二分类的逻辑回归多了一些类别.下面将根据多项式分布建模. 考虑将样本共有k类,每一类的概率分别为,由于,所以通常我们只需要k-1个参数即可 , 为了推导,引入表达式: 上面T(y)是k-1维列向量,其中y = 1, 2, ...k. T(y)i 表示向量T(y)的第i个元素. 还要引入表达式 ,如果大括号里面为真,则真个表达式就为1,否则为0…
关于Andrew Ng的machine learning课程中,有一章专门讲解逻辑回归(Logistic回归),具体课程笔记见另一篇文章. 下面,对Logistic回归做一个简单的小结: 给定一个待分类样本x,利用Logistic回归模型判断该输入样本的类别,需要做的就是如下两步: ① 计算逻辑回归假设函数的取值hθ(x),其中n是样本的特征维度 ② 如果hθ(x)>=0.5,则x输入正类,否则,x属于负类 或者直接利用判别边界进行判断,即:如果θ'x>=0,则x输入正类,否则,x属于负类 所…
在本节中,我们介绍Softmax回归模型,该模型是logistic回归模型在多分类问题上的推广,在多分类问题中,类标签 可以取两个以上的值. Softmax回归模型对于诸如MNIST手写数字分类等问题是很有用的,该问题的目的是辨识10个不同的单个数字.Softmax回归是有监督的,不过后面也会介绍它与深度学习/无监督学习方法的结合.(译者注: MNIST 是一个手写数字识别库,由NYU 的Yann LeCun 等人维护.http://yann.lecun.com/exdb/mnist/ ) 回想…
UFLDL深度学习笔记 (二)Softmax 回归 本文为学习"UFLDL Softmax回归"的笔记与代码实现,文中略过了对代价函数求偏导的过程,本篇笔记主要补充求偏导步骤的详细推导. 1. 详细推导softmax代价函数的梯度 经典的logistics回归是二分类问题,输入向量$ x^{(i)}\in\Re^{n+1}$ 输出0,1判断\(y^{(i)}\in{\{0,1\}}\),Softmax回归模型是一种多分类算法模型,如图所示,输出包含k个类型,\(y^{(i)}\in{\…
前言            以下内容是个人学习之后的感悟,转载请注明出处~ softmax回归 首先,我们看一下sigmod激活函数,如下图,它经常用于逻辑回归,将一个real value映射到(0,1)的区间(当然也可以是 (-1,1)),这样可以用来做二分类. 接下来,我们再看一下softmax函数,其函数类型如下: 那么,softmax又是怎么实现的呢?softmax把一个k维的real value向量(a1,a2,a3,a4….)映射成一个(b1,b2,b3,b4….) 其中bi是一个0…