本系列主要参考《机器学习实战》,使用python3编译环境,实现书中的相关代码。

1.基本算法

  关于梯度上升算法和随机梯度上升算法的选择:

    当数据集较小时,使用梯度上升算法;

    当数据集较大时,使用改进的随机梯度上升算法。

 """
使用梯度上升和随机梯度上升,解决逻辑回归
数据的显示
""" import numpy as np
import matplotlib.pyplot as plt
import random
"""
加载数据
"""
def loadDataSet():
dataMat = [] #数据列表
labelMat = [] #标签列表
fr = open('testSet.txt')
for line in fr.readlines():
#print(line)
lineArr = line.strip().split() #去回车,放入列表
dataMat.append([1.0, float(lineArr[0]), float(lineArr[1])]) #添加数据
labelMat.append(int(lineArr[2])) #添加标签
fr.close()
return dataMat,labelMat """
绘制数据
"""
def plotDataSet():
dataMat,labelMat=loadDataSet()
dataArr = np.array(dataMat) #将list或tuple变量转换成numpy的array数组
n = np.shape(dataMat)[0] #numpy.shape返回数组每一维的大小
xcord1 = []; ycord1 = [] #正样本
xcord2 = []; ycord2 = [] #负样本
for i in range(n): #将样本集分类
if int(labelMat[i]) == 1:
xcord1.append(dataArr[i,1]); ycord1.append(dataArr[i,2])
else:
xcord2.append(dataArr[i,1]); ycord2.append(dataArr[i,2]) fig = plt.figure()
ax = fig.add_subplot(111) #添加subplot
ax.scatter(xcord1,ycord1,s = 20 , c='red', marker = 's',alpha=0.5) #绘制正样本
ax.scatter(xcord2,ycord2,s = 20 , c='green', alpha=0.5) #绘制负样本
plt.title("DataSet") #绘制title
plt.xlabel('x1'); plt.ylabel('x2') #绘制label
plt.show() #显示 """
sigmoid函数
"""
def sigmoid(inX):
return 1.0/(1 + np.exp(-inX)) """
梯度上升算法
"""
def gradientAscent(dataMatIn,classLabels):
dataMatrix = np.mat(dataMatIn) #转换为numpy矩阵
labelMat = np.mat(classLabels).transpose() #转换为numpy矩阵,并进行转置
m,n = np.shape(dataMatrix) #返回数组每一维的大小,m为行数,n为列数
alpha = 0.001 #步长即学习速率
maxCycles = 500 #最大迭代次数
weights = np.ones((n,1)) #构造n*1的元素全为1的矩阵
for k in range(maxCycles): #梯度上升公式
h = sigmoid(dataMatrix * weights)
error = labelMat - h
weights = weights + alpha * dataMatrix.transpose() * error
return weights """
随机梯度上升算法
相比于梯度上升算法,有两处改进的地方:
1.alpha在每次迭代更新是都会调整,这会缓解数据波动或者高频运动。此外,alpha还有一个常数项,目的是为了保证在多次迭代后仍然对新数据具有一定的影响,如果要处理的问题是动态变化的,可以适当加大该常数项,从而确保新的值获得更大的回归系数。
2.更新回归系数(最优参数)时,只使用一个样本点,并且选择的样本点是随机的,每次迭代不使用已经用过的样本点。这样的方法,就有效地减少了计算量,并保证了回归效果。
"""
def randomGradientAscent(dataMat,classLabels,numIter=150): #numIter为迭代次数默认为150
dataMatrix = np.array(dataMat) #将list或tuple变量转换成numpy的array数组
m,n = np.shape(dataMatrix) #返回数组每一维的大小,m为行数,n为列数
weights = np.ones(n) #构造1*n的元素全为1的矩阵
for j in range(numIter):
dataIndex = list(range(m)) #获取数据集行下标列表
for i in range(m):
alpha = 4/(1.0+i+j)+0.01 #每次更新参数时设置动态的步长,且为保证多次迭代后对新数据仍然具有一定影响
randIndex = int(random.uniform(0,len(dataIndex)))#随机选取样本
h = sigmoid(sum(dataMatrix[randIndex]*weights)) #选择随机选取的一个样本,计算h
error = classLabels[randIndex] - h #计算误差
weights= weights + alpha* error * dataMatrix[randIndex] #更新回归系数
del(dataIndex[randIndex]) #删除已经使用的样本
return weights """
梯度上升算法,绘制数据集和拟合直线
"""
def plotBestFit(weights):
dataMat,labelMat=loadDataSet()
dataArr = np.array(dataMat) #将list或tuple变量转换成numpy的array数组
n = np.shape(dataMat)[0] #numpy.shape返回数组每一维的大小
xcord1 = []; ycord1 = [] #正样本
xcord2 = []; ycord2 = [] #负样本
for i in range(n): #将样本集分类
if int(labelMat[i]) == 1:
xcord1.append(dataArr[i,1]); ycord1.append(dataArr[i,2])
else:
xcord2.append(dataArr[i,1]); ycord2.append(dataArr[i,2]) fig = plt.figure()
ax = fig.add_subplot(111) #添加subplot
ax.scatter(xcord1,ycord1,s = 20 , c='red', marker = 's',alpha=0.5) #绘制正样本
ax.scatter(xcord2,ycord2,s = 20 , c='green', alpha=0.5) #绘制负样本 x = np.arange(-3.0,3.0,0.1)
y = (-weights[0] -weights[1] * x) / weights[2]
ax.plot(x,y)
plt.title("DataSet") #绘制title
plt.xlabel('x1'); plt.ylabel('x2') #绘制label
plt.show() #显示 if __name__ == '__main__':
#plotDataSet()
dataMat,labelMat=loadDataSet()
#weights = gradientAscent(dataMat,labelMat).getA() #(梯度上升算法)将矩阵转换为数组,返回权重数组,不转化会报错
weights = randomGradientAscent(dataMat,labelMat) #(随机梯度上升算法)
plotBestFit(weights)

2.从疝气病症预测病马的死亡率

 """
使用随机梯度上升算法,解决病马死亡率问题
"""
import numpy as np
import random def sigmoid(inX):
return 1.0/(1+np.exp(-inX)) """
随机梯度上升算法
相比于梯度上升算法,有两处改进的地方:
1.alpha在每次迭代更新是都会调整,这会缓解数据波动或者高频运动。此外,alpha还有一个常数项,目的是为了保证在多次迭代后仍然对新数据具有一定的影响,如果要处理的问题是动态变化的,可以适当加大该常数项,从而确保新的值获得更大的回归系数。
2.更新回归系数(最优参数)时,只使用一个样本点,并且选择的样本点是随机的,每次迭代不使用已经用过的样本点。这样的方法,就有效地减少了计算量,并保证了回归效果。
"""
def randomGradientAscent(dataMat,classLabels,numIter=150): #numIter为迭代次数默认为150
dataMatrix = np.array(dataMat) #将list或tuple变量转换成numpy的array数组
m,n = np.shape(dataMatrix) #返回数组每一维的大小,m为行数,n为列数
#print(m,n)
#print(len(classLabels))
weights = np.ones(n) #构造1*n的元素全为1的矩阵
for j in range(numIter):
dataIndex = list(range(m)) #获取数据集行下标列表
for i in range(m):
alpha = 4/(1.0+i+j)+0.01 #每次更新参数时设置动态的步长,且为保证多次迭代后对新数据仍然具有一定影响
randIndex = int(random.uniform(0,len(dataIndex)))#随机选取样本
#print(i ,randIndex)
h = sigmoid(sum(dataMatrix[randIndex]*weights)) #选择随机选取的一个样本,计算h
error = classLabels[randIndex] - h #计算误差
weights= weights + alpha* error * dataMatrix[randIndex] #更新回归系数
del(dataIndex[randIndex]) #删除已经使用的样本
return weights """
分类函数,判断分类
"""
def classifyVector(inX , weights):
prob = sigmoid(sum(inX*weights))
if prob>0.5:
return 1.0
else:
return 0.0 """
测试分类器
"""
def colicTest():
dataMat,labelMat = loadDataSet()
trainWeigths = randomGradientAscent(dataMat,labelMat,500)
frTest = open('horseColicTest.txt')
numTestVec =0.0 #测试样例总数
errorCount =0 #错误样例数
for line in frTest.readlines():
numTestVec += 1.0
currArr = line.strip().split('\t')
lineArr = []
for i in range(len(currArr)-1):
lineArr.append(float(currArr[i]))
if int(classifyVector(np.array(lineArr),trainWeigths)) != int(currArr[-1]):
errorCount += 1
errorRate = (float(errorCount)/numTestVec)*100
print("测试集错误率为:%.2f%%" %errorRate) """
加载数据
"""
def loadDataSet():
dataSet = [] #数据列表
labelMat = [] #标签列表
frTrain = open('horseColicTraining.txt')
for line in frTrain.readlines():
#print(line)
currArr = line.strip().split('\t')
lineArr = []
for i in range(len(currArr)-1):
lineArr.append(float(currArr[i]))
dataSet.append(lineArr)
labelMat.append(float(currArr[-1])) #添加标签
frTrain.close()
return dataSet, labelMat if __name__ == '__main__':
colicTest()

3.使用sklearn预测病马的死亡率

 """
使用sklearn构建逻辑回归分类器
"""
from sklearn.linear_model import LogisticRegression
"""
加载数据
"""
def loadDataSet():
dataSet = [] #数据列表
labelMat = [] #标签列表
frTrain = open('horseColicTraining.txt')
for line in frTrain.readlines():
#print(line)
currArr = line.strip().split('\t')
lineArr = []
for i in range(len(currArr)-1):
lineArr.append(float(currArr[i]))
dataSet.append(lineArr)
labelMat.append(float(currArr[-1])) #添加标签
frTrain.close()
return dataSet, labelMat """
加载测试数据
"""
def loadTestDataSet():
dataSet = [] #数据列表
labelMat = [] #标签列表
frTrain = open('horseColicTest.txt')
for line in frTrain.readlines():
#print(line)
currArr = line.strip().split('\t')
lineArr = []
for i in range(len(currArr)-1):
lineArr.append(float(currArr[i]))
dataSet.append(lineArr)
labelMat.append(float(currArr[-1])) #添加标签
frTrain.close()
return dataSet, labelMat """
测试分类器
"""
def colicTest():
dataMat,labelMat = loadDataSet()
testMat,testLabelMat = loadTestDataSet()
classifier = LogisticRegression(solver ='liblinear',max_iter =10).fit(dataMat,labelMat)
accurcyRate = classifier.score(testMat,testLabelMat)*100
print("测试集正确率为:%.2f%%" %accurcyRate) if __name__ == '__main__':
colicTest()

Machine Learning in action --LogisticRegession 逻辑回归的更多相关文章

  1. 机器学习实战(Machine Learning in Action)学习笔记————05.Logistic回归

    机器学习实战(Machine Learning in Action)学习笔记————05.Logistic回归 关键字:Logistic回归.python.源码解析.测试作者:米仓山下时间:2018- ...

  2. 《Machine Learning in Action》—— Taoye给你讲讲Logistic回归是咋回事

    在手撕机器学习系列文章的上一篇,我们详细讲解了线性回归的问题,并且最后通过梯度下降算法拟合了一条直线,从而使得这条直线尽可能的切合数据样本集,已到达模型损失值最小的目的. 在本篇文章中,我们主要是手撕 ...

  3. 《Machine Learning in Action》—— 浅谈线性回归的那些事

    <Machine Learning in Action>-- 浅谈线性回归的那些事 手撕机器学习算法系列文章已经肝了不少,自我感觉质量都挺不错的.目前已经更新了支持向量机SVM.决策树.K ...

  4. 【机器学习实战】Machine Learning in Action 代码 视频 项目案例

    MachineLearning 欢迎任何人参与和完善:一个人可以走的很快,但是一群人却可以走的更远 Machine Learning in Action (机器学习实战) | ApacheCN(apa ...

  5. 学习笔记之机器学习实战 (Machine Learning in Action)

    机器学习实战 (豆瓣) https://book.douban.com/subject/24703171/ 机器学习是人工智能研究领域中一个极其重要的研究方向,在现今的大数据时代背景下,捕获数据并从中 ...

  6. 机器学习实战(Machine Learning in Action)学习笔记————07.使用Apriori算法进行关联分析

    机器学习实战(Machine Learning in Action)学习笔记————07.使用Apriori算法进行关联分析 关键字:Apriori.关联规则挖掘.频繁项集作者:米仓山下时间:2018 ...

  7. 《Machine Learning in Action》—— Taoye给你讲讲决策树到底是支什么“鬼”

    <Machine Learning in Action>-- Taoye给你讲讲决策树到底是支什么"鬼" 前面我们已经详细讲解了线性SVM以及SMO的初步优化过程,具体 ...

  8. K近邻 Python实现 机器学习实战(Machine Learning in Action)

    算法原理 K近邻是机器学习中常见的分类方法之间,也是相对最简单的一种分类方法,属于监督学习范畴.其实K近邻并没有显式的学习过程,它的学习过程就是测试过程.K近邻思想很简单:先给你一个训练数据集D,包括 ...

  9. 机器学习实战(Machine Learning in Action)学习笔记————10.奇异值分解(SVD)原理、基于协同过滤的推荐引擎、数据降维

    关键字:SVD.奇异值分解.降维.基于协同过滤的推荐引擎作者:米仓山下时间:2018-11-3机器学习实战(Machine Learning in Action,@author: Peter Harr ...

随机推荐

  1. Php实现版本比较接口

    版本号格式: A.B.C, 字符串形式 <?php // 强更版本, 客户端版本 $f = '5.8.5'; $c = '5.8.4'; // 字符串分割并转换成整数数组 function Sp ...

  2. dokcer使用--link 让容器相连

    在使用Docker的时候我们会常常碰到这么一种应用,就是我需要两个或多个容器,其中某些容器需要使用另外一些容器提供的服务.比如这么一种情况:我们需要一个容器来提供MySQL的数据库服务,而另外两个容器 ...

  3. [Linux] 如何禁止使用口令只允许使用密钥建立 SSH 连接

    1. 创建 SSH KEY 使用 ssh-keygen 生成一个密钥对,并且将公钥注册到服务器的 $HOME/.ssh/authorized_keys 文件. 2. 确保启用 SSH 公钥认证功能 查 ...

  4. [Ubuntu] LightDM 轻量级桌面显示管理器

    LightDM(Light Display Manager)是一个全新的轻量级 Linux 桌面显示管理器,而传统的 Ubuntu 是使用 GNOME 桌面标准的 GDM. LightDM 是一个跨桌 ...

  5. TSPL学习笔记(1)

    扩展语法(Syntactic extensions) 扩展语法就是通过核心语法或已经定义的扩展语法创建一种新的语法模式. Scheme核心语法模式包括: 顶层定义 常量 变量 过程应用 '(quote ...

  6. 6.25python线程问题

    #encoding=utf-8 #2018-6-25 20:34:48 #解决耦合的问题#用队列解决这种问题,起到了缓冲的作用 import threading import time # #pyth ...

  7. juqery 点击谁获取他的值,赋给input标签

    //html代码 <a href="javascript:;" class="confirm fahuo" data-fahuo-id="{$v ...

  8. SMB服务简介

      1.Samba简介 Samba是种自由软件,用来让UNIX系列的操作系统与微软Windows操作系统的SMB/CIFS(Server Message Block/Common Internet F ...

  9. [No0000EE]主要的宏观经济指标查询

    主要的宏观经济指标查询 国内:东财>经济数据 _ 数据中心:http://data.eastmoney.com/center/macro.html东财>经济数据 :http://data. ...

  10. CSS3 ::selection 选择器

    ::selection { color:#ff0000; } ::-moz-selection { color:#ff0000; }详见 http://www.css88.com/archives/5 ...