熵的概念在统计学习与机器学习中真是很重要,熵的介绍在这里:信息熵 Information Theory .今天的主题是最大熵模型(Maximum Entropy Model,以下简称MaxEnt),MaxEnt 是概率模型学习中一个准则,其思想为:在学习概率模型时,所有可能的模型中熵最大的模型是最好的模型:若概率模型需要满足一些约束,则最大熵原理就是在满足已知约束的条件集合中选择熵最大模型.最大熵原理指出,对一个随机事件的概率分布进行预测时,预测应当满足全部已知的约束,而对未知的情况不要做任何主…
一个典型的logistic regression模型是: 这里明明用了非线性函数,那为什么logistic regression还是线性模型呢? 首先,这个函数不是f(y,x)=0的函数,判断一个模型是否是线性,是通过分界面是否是线性来判断的. 这个P函数是y关于x的后验概率,它的非线性性不影响分界面的线性性.可以通过令两种类别的概率相等,求解x的表达式,如果是线性的,那么就是线性模型. 打破线性也很简单,只要变量之间相乘一下,或者使用非线性函数. 容易得出,softmax regression…
参考资料:http://blog.csdn.net/xuanyuansen/article/details/41050507 习题: 数据及代码:  https://pan.baidu.com/s/1i4Iv3Nn…
因为本篇文章公式较多,csdn博客不同意复制公式,假设将公式一一保存为图片在上传太繁琐了,就用word排好版后整页转为图片传上来了.如有错误之处.欢迎指正.…
0,熵的描述 熵(entropy)指的是体系的混沌的程度(可也理解为一个随机变量的不确定性),它在控制论.概率论.数论.天体物理.生命科学等领域都有重要应用,在不同的学科中也有引申出的更为具体的定义,是各领域十分重要的参量.熵由鲁道夫·克劳修斯(Rudolf Clausius)提出,并应用在热力学中.后来在,克劳德·艾尔伍德·香农(Claude Elwood Shannon)第一次将熵的概念引入到信息论中来.----baidu 下面我们将从随机变量开始一步一步慢慢理解熵. 1,随机变量(rand…
原文链接:https://developers.google.com/machine-learning/crash-course/logistic-regression/ 逻辑回归会生成一个介于 0 到 1 之间(不包括 0 和 1)的概率值,而不是确切地预测结果是 0 还是 1. 1- 计算概率 许多问题需要将概率估算值作为输出.逻辑回归是一种极其高效的概率计算机制,返回的是概率(输出值始终落在 0 和 1 之间).可以通过如下两种方式使用返回的概率: “按原样”:“原样”使用返回的概率(例如…
一 评价尺度 sklearn包含四种评价尺度 1 均方差(mean-squared-error) 2 平均绝对值误差(mean_absolute_error) 3 可释方差得分(explained_variance_score) 4 中值绝对误差(Median absolute error) 5 R2 决定系数(拟合优度) 模型越好:r2→1 模型越差:r2→0 二 逻辑斯蒂回归 1 概述 在逻辑斯蒂回归中,我们将会采用sigmoid函数作为激励函数,所以它被称为sigmoid回归或对数几率回归…
机器学习总结之逻辑回归Logistic Regression 逻辑回归logistic regression,虽然名字是回归,但是实际上它是处理分类问题的算法.简单的说回归问题和分类问题如下: 回归问题:预测一个连续的输出. 分类问题:离散输出,比如二分类问题输出0或1. 逻辑回归常用于垃圾邮件分类,天气预测.疾病判断和广告投放. 一.假设函数 因为是一个分类问题,所以我们希望有一个假设函数,使得: 而sigmoid 函数可以很好的满足这个性质: 故假设函数: 其实逻辑回归为什么要用sigmoi…
逻辑回归(Logistic Regression) 线性回归用来预测,逻辑回归用来分类. 线性回归是拟合函数,逻辑回归是预测函数 逻辑回归就是分类. 分类问题用线性方程是不行的   线性方程拟合的是连续的值 逻辑回归是分类问题   比如肿瘤问题    只有 0 ,1 两种情况 逻辑回归的方程写成 X是特征向量   theta是参数向量    theta转置乘以特征向量 就是参数与特征相乘 g代表逻辑函数     一个常用的s型逻辑函数就是 : 图为: python代码为: 的意义呢     因为…