keras与卷积神经网络(CNN)实现识别minist手写数字
在本篇博文当中,笔者采用了卷积神经网络来对手写数字进行识别,采用的神经网络的结构是:输入图片——卷积层——池化层——卷积层——池化层——卷积层——池化层——Flatten层——全连接层(64个神经元)——全连接层(500个神经元)——softmax函数,最后得到分类的结果。Flatten层用于将池化之后的多个二维数组展开成一维数组,再灌入全连接层的神经元当中。
首先导包:
import keras
from keras import layers
from keras import models
建立神经网络的顺序模型:
model = models.Sequential()
添加神经网络的结构(三组卷积层,池化层。一个flatten层,以及两个全连接层),激活函数我一般喜欢使用relu,当然你也可以使用sigmoid,tanh这两个激活函数,更改我的代码即可。由于是手写数字,最后的softmax一共只能够有十个数字,因此输出写10.激活函数使用softmax。其他都是relu。
model.add(layers.Conv2D(32, (3, 3), activation='relu', input_shape=(28, 28, 1)))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(64, (3, 3), activation='relu'))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(64, (3, 3), activation='relu'))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Flatten())
model.add(layers.Dense(64, activation='relu'))
model.add(layers.Dense(500, activation='relu'))
model.add(layers.Dense(10, activation='softmax'))
神经网络搭建完毕,开始导minist手写数字,对数字进行分类,分为训练集和验证集,同时将数字进行reshape,代码如下:
from keras.datasets import mnist
from keras.utils import to_categorical
(train_images, train_labels), (test_images, test_labels) = mnist.load_data()
train_images = train_images.reshape((60000, 28, 28, 1))
train_images = train_images.astype('float32') / 255
test_images = test_images.reshape((10000, 28, 28, 1))
test_images = test_images.astype('float32') / 255
train_labels = to_categorical(train_labels)
test_labels = to_categorical(test_labels)
紧接着选择需要进行梯度下降的优化器,常见的有adagrad,adam,rmsprop等等,这里选择了rmsprop。损失函数loss function这里选择了Cross Entropy,也就是交叉熵(因为最后是一个softmax函数进行分类,我们常常用交叉熵来衡量模型的准确度,这个计算起来比较方便,也比较有道理)。模型fit的过程当中我选择了mini—batch小批量梯度下降法,用这个方法比较适合电脑,如果使用所有数据进行梯度下降,那么电脑跑很久才能够完成,如果使用小批量梯度下降,电脑则可以自动进行并行计算,时间减少。迭代次数我选择了10次,每一个mini——batch的批量为128,这个无所谓,这个参数适中即可,不可太大也不能太小。代码如下:
model.compile(optimizer='rmsprop',
loss='categorical_crossentropy',
metrics=['accuracy'])
model.fit(train_images, train_labels, epochs=10, batch_size=128)
输出:
Epoch 1/10
60000/60000 [==============================] - 42s 703us/step - loss: 0.0192 - acc: 0.9940
Epoch 2/10
60000/60000 [==============================] - 42s 706us/step - loss: 0.0166 - acc: 0.9945
Epoch 3/10
60000/60000 [==============================] - 43s 724us/step - loss: 0.0146 - acc: 0.99580s - loss: 0.0145 - acc: 0.9
Epoch 4/10
60000/60000 [==============================] - 43s 720us/step - loss: 0.0129 - acc: 0.9960
Epoch 5/10
60000/60000 [==============================] - 43s 718us/step - loss: 0.0130 - acc: 0.9962
Epoch 6/10
60000/60000 [==============================] - 44s 728us/step - loss: 0.0105 - acc: 0.9966
Epoch 7/10
60000/60000 [==============================] - 44s 737us/step - loss: 0.0095 - acc: 0.9969
Epoch 8/10
60000/60000 [==============================] - 44s 728us/step - loss: 0.0101 - acc: 0.9972
Epoch 9/10
60000/60000 [==============================] - 44s 735us/step - loss: 0.0085 - acc: 0.9974
Epoch 10/10
60000/60000 [==============================] - 45s 743us/step - loss: 0.0081 - acc: 0.99750s - loss: 0.0081 - acc: 0.997
可以看到模型经过十次迭代,训练集的准确度已经达到了%99.7以上,这样会不会出现过拟合的情况呢?用不用减少一下模型的迭代次数呢?笔者的心里怕怕的,于是用验证集来验证一下模型的准确度:
test_loss, test_acc = model.evaluate(test_images, test_labels)
print(test_acc)
输出:
0.9868
模型的准确度达到了%98.68,接近百分之九十九的样子,比笔者仅用全连接神经网络训练的结果高了零点几的准确度,从中还是可以看出卷积神经网络的有效性,在没有进行调参的情况下准确度已经很高了!
keras与卷积神经网络(CNN)实现识别minist手写数字的更多相关文章
- 利用神经网络算法的C#手写数字识别(一)
利用神经网络算法的C#手写数字识别 转发来自云加社区,用于学习机器学习与神经网络 欢迎大家前往云+社区,获取更多腾讯海量技术实践干货哦~ 下载Demo - 2.77 MB (原始地址):handwri ...
- 利用神经网络算法的C#手写数字识别(二)
利用神经网络算法的C#手写数字识别(二) 本篇主要内容: 让项目编译通过,并能打开图片进行识别. 1. 从上一篇<利用神经网络算法的C#手写数字识别>中的源码地址下载源码与资源, ...
- 利用神经网络算法的C#手写数字识别
欢迎大家前往云+社区,获取更多腾讯海量技术实践干货哦~ 下载Demo - 2.77 MB (原始地址):handwritten_character_recognition.zip 下载源码 - 70. ...
- python-积卷神经网络全面理解-tensorflow实现手写数字识别
首先,关于神经网络,其实是一个结合很多知识点的一个算法,关于cnn(积卷神经网络)大家需要了解: 下面给出我之前总结的这两个知识点(基于吴恩达的机器学习) 代价函数: 代价函数 代价函数(Cost F ...
- 使用卷积神经网络CNN训练识别mnist
算的的上是自己搭建的第一个卷积神经网络.网络结构比较简单. 输入为单通道的mnist数据集.它是一张28*28,包含784个特征值的图片 我们第一层输入,使用5*5的卷积核进行卷积,输出32张特征图, ...
- 吴裕雄 python 神经网络——TensorFlow 使用卷积神经网络训练和预测MNIST手写数据集
import tensorflow as tf import numpy as np from tensorflow.examples.tutorials.mnist import input_dat ...
- CNN完成mnist数据集手写数字识别
# coding: utf-8 import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data d ...
- Tensorflow笔记——神经网络图像识别(五)手写数字识别
- 多层全连接神经网络实现minist手写数字分类
import torch import numpy as np import torch.nn as nn from torch.autograd import Variable import tor ...
随机推荐
- 网络编程---socket模块
内容中代码都是先写 server端, 再写 client端 1 TCP和UDP对比 TCP(Transmission Control Protocol)可靠的.面向连接的协议(eg:打电话).传输效 ...
- PDA程序开发的运行配置
前言:因为这个项目是公司一直在做的项目,所以只是简单说一下我从下载项目到成功运行的配置 开发工具:APICloud.雷神模拟器.Visusl studio vs配置: 1.svn下载后台代码后,修改w ...
- 2016 Multi-University Training Contest 1 T4
http://acm.hdu.edu.cn/showproblem.php?pid=5726 求不修改区间gcd可以用线段树或者倍增. 求l-n的我们注意观察gcd(al,al+1,... ...
- 【spring springmvc】springmvc使用注解声明控制器与请求映射
目录 概述 壹:注解说明 贰:实现注解声明控制器与请求映射 一:使用controller 二:配置包扫描与视图解析器 1.配置包扫描 2.配置试图解析器 三:配置部署描述符 1.读取spring-mv ...
- 基于Ubuntu的ORB-SLAM2项目环境搭建过程
目录 关于ORB-SLAM2 环境搭建 已有环境 创建环境 新建项目目录 安装Pangolin 安装OpenCV 3.2 安装Eigen DBoW2 and g2o (Included in Thir ...
- 记录一次云主机部署openstack的血泪史
看见这个部署成功的留下了激动的泪水 经过长时间的BUG苦肝终于成功部署成功 部署的环境2vCPU 8GB 阿里云主机,部署成功以后内存占用确实蛮高的 记录这一次踩坑,给后来者避免踩坑时间,个人踩坑踩 ...
- Java基础语法(3)-运算符
title: Java基础语法(3)-运算符 blog: CSDN data: Java学习路线及视频 1.算术运算符 算术运算符的注意问题 如果对负数取模,可以把模数负号忽略不记,如:5%-2=1. ...
- 支持向量机(Support Vector Machine)
本博客是针对Andrew NG在Coursera上发布的Machine Learning课程SVM部分的学习笔记. 目录 前言 最优化目标(Optimization Objective) 最大化边界的 ...
- OpenCV-Python 改变颜色空间 | 十三
目标 在本教程中,你将学习如何将图像从一个色彩空间转换到另一个,像BGR↔灰色,BGR↔HSV等 除此之外,我们还将创建一个应用程序,以提取视频中的彩色对象 你将学习以下功能:cv.cvtColor, ...
- 用FME处理物探点表和线表,生成管线和设施
在项目的数据处理中,客户会提供物探点表和线表. 点表主要包括该点的物探编号.该点的X坐标.Y坐标.点的其他属性 线表主要包括该线的起始点物探编号.终止物探编号.线的其他属性 点表