机器学习-非线性回归(Logistic Regression)及应用
1. 概率
1.1 定义:概率(Probability):对一件事情发生的可能性的衡量。
1.2 范围:0 <= P <= 1
1.3 计算方法:
1.3.1 根据个人置信
1.3.2 根据历史数据
1.3.3 根据模拟数据
1.4 条件概率:

2. Logistic Regression(逻辑回归)
2.1 列子:模拟癌症肿瘤是良性还是恶性

h(x) > 0.5

h(x) > 0.2
2.2 基本模型
测试数据为:
要学习的参数为:

向量表示:

由于y取值在[0,1]之间,所有需要处理二值数据,引入Sigmoid函数来使得曲线平滑化


预测函数:

用概率表示:
正例(y = 1):

反例(y = 0):

2.3 Cost函数
线性回归:

 (预测值-实例值)
(预测值-实例值)
 (类似于线性模型)
(类似于线性模型)
在简单线性模型中找到合适的 使得上式最小
使得上式最小
Logistic regression:
Cost函数:

上式合并可以得到下面的式子
目标:找到合适的 使得上式最小
使得上式最小
2.4 解法:梯度下降法(gradient decent)



 为学习率
为学习率
更新法则:

 为学习率
为学习率
同时对所有的 进行更新,重复更新知道收敛
进行更新,重复更新知道收敛
# -*- coding:utf-8 -*- import numpy as np
import random #产生模拟数据 numPoints实例个数 bias偏好值 variance方差
def genData(numPoints, bias, variance):
x = np.zeros(shape=(numPoints, 2))
y = np.zeros(shape=(numPoints)) #1行 如:1x100
for i in range(0, numPoints):#每一行循环
x[i][0] = 0 #每行第一列等于1
x[i][1] = i #每行第二列等于i
y[i] = (i + bias) + random.uniform(0, 1) + variance
return x,y #梯度下降
def gradientDescent(x, y, theta, alpha, m, numIterations): #alpha学习率 m实例个数 numIterations更新次数
xTran = np.transpose(x)#转置
for i in range(numIterations):
hypothesis = np.dot(x, theta)#估计值
loss = hypothesis - y#估计值-实际值
cost = np.sum(loss**2)/(2*m)#这里的定义最简单的cost函数和实际定义有出入
gradient = np.dot(xTran,loss)/m#更新量
theta = theta - alpha*gradient
print("Iteration %d | cost: %f" %(i, cost))
return theta #测试
x, y = genData(100, 25, 10)
# print("x:")
# print(x)
# print("y:")
# print(y)
#
m, n = np.shape(x)
n_y = np.shape(y)
#
# print("x_shape:" ,str(m)," ",str(n))
# print("y_shape:" , str(n_y)) numIterations = 100000
alpha = 0.0005
theta = np.ones(n)
theta = gradientDescent(x, y, theta, alpha, m, numIterations)
print(theta)
机器学习-非线性回归(Logistic Regression)及应用的更多相关文章
- 【机器学习】Logistic Regression 的前世今生(理论篇)
		Logistic Regression 的前世今生(理论篇) 本博客仅为作者记录笔记之用,不免有非常多细节不正确之处. 还望各位看官能够见谅,欢迎批评指正. 博客虽水,然亦博主之苦劳也. 如需转载,请 ... 
- Python机器学习笔记 Logistic Regression
		Logistic回归公式推导和代码实现 1,引言 logistic回归是机器学习中最常用最经典的分类方法之一,有人称之为逻辑回归或者逻辑斯蒂回归.虽然他称为回归模型,但是却处理的是分类问题,这主要是因 ... 
- 【模式识别与机器学习】——logistic regression
		虽然叫做“回归”,但是这个算法是用来解决分类问题的.回归与分类的区别在于:回归所预测的目标量的取值是连续的(例如房屋的价格):而分类所预测的目标变量的取值是离散的(例如判断邮件是否为垃圾邮件).当然, ... 
- 在opencv3中实现机器学习之:利用逻辑斯谛回归(logistic regression)分类
		logistic regression,注意这个单词logistic ,并不是逻辑(logic)的意思,音译过来应该是逻辑斯谛回归,或者直接叫logistic回归,并不是什么逻辑回归.大部分人都叫成逻 ... 
- Stanford机器学习---第三讲. 逻辑回归和过拟合问题的解决 logistic Regression & Regularization
		原文:http://blog.csdn.net/abcjennifer/article/details/7716281 本栏目(Machine learning)包括单参数的线性回归.多参数的线性回归 ... 
- 机器学习总结之逻辑回归Logistic Regression
		机器学习总结之逻辑回归Logistic Regression 逻辑回归logistic regression,虽然名字是回归,但是实际上它是处理分类问题的算法.简单的说回归问题和分类问题如下: 回归问 ... 
- 机器学习入门11 - 逻辑回归 (Logistic Regression)
		原文链接:https://developers.google.com/machine-learning/crash-course/logistic-regression/ 逻辑回归会生成一个介于 0 ... 
- 李宏毅机器学习笔记3:Classification、Logistic Regression
		李宏毅老师的机器学习课程和吴恩达老师的机器学习课程都是都是ML和DL非常好的入门资料,在YouTube.网易云课堂.B站都能观看到相应的课程视频,接下来这一系列的博客我都将记录老师上课的笔记以及自己对 ... 
- 【机器学习】逻辑回归(Logistic Regression)
		注:最近开始学习<人工智能>选修课,老师提纲挈领的介绍了一番,听完课只了解了个大概,剩下的细节只能自己继续摸索. 从本质上讲:机器学习就是一个模型对外界的刺激(训练样本)做出反应,趋利避害 ... 
随机推荐
- C++入门经典-例5.18-通过引用交换数值
			1:在C++中,函数参数的传递方式主要有两种,即值传递和引用传递.值传递是指在函数调用时,将实际参数的值赋值一份传递到调用函数中,这样如果在调用函数中修改了参数的值,其改变将不会影响到实际参数的值.而 ... 
- Uploading multiple files asynchronously by blueimp jquery-fileupload
			Uploading multiple files asynchronously by blueimp jquery-fileupload Solved. Fiddle: http://jsfidd ... 
- Android如何使用Https与Nohttp框架使用
			什么是Https? HTTPS(全称:Hyper Text Transfer Protocol over Secure Socket Layer),是以安全为目标的HTTP通道,简单讲是HTTP的安全 ... 
- Ubuntu下查找nginx日志
			使用awk检测nginx日志, 按小时计数 awk '{split($4,array,"[");if(array[2]>="29/May/2016:00:00:26 ... 
- vim命令行模式常见快捷方式
			普通模式下的快捷键 快捷键 说明 i insert, 在光标所在处输入 I 在当前光标所在行的行首输入 a append, 在光标所在处后面输入 A 在当前光标所在行的行尾输入 o 在当前光标所在行的 ... 
- 【转】Unity ZTest 深度测试 & ZWrite 深度写入
			原文连接:https://www.cnblogs.com/ljx12138/p/5341381.html 参考另一篇写的比较好的:Unity Shader中的 ZTest & ZWrite 初 ... 
- Linux下源码安装MySQL-5.6.25
			从mysql-5.5起,mysql源码安装开始使用cmake了,因此我们得先安装cmake,配置安装目录./configure --perfix=/.....的时候和以前的会有些区别. 一.安装cma ... 
- epoll 性能分析(解决占用CPU 过高问题)2
			针对服务器框架Engine,在工作线程中发现该线程占用CPU过高,分析之后发现问题出在死循环那里 void cServerBase::OnProcess() { printf("cServe ... 
- 【神经网络与深度学习】CIFAR-10数据集介绍
			CIFAR-10数据集含有6万个32*32的彩色图像,共分为10种类型,由 Alex Krizhevsky, Vinod Nair和 Geoffrey Hinton收集而来.包含50000张训练图片, ... 
- Win10删除右键菜单快捷键方法
			打开注册表,找到HKEY_CLASSES_ROOT\Directory\Background路径,删除对应的快捷方式即可 
