参考:http://blog.csdn.net/zouxy09/article/details/8781543 ( 但其中有部分错误)

http://ufldl.stanford.edu/wiki/index.php/UFLDL_Tutorial

一、卷积(convolution) - 整理自UFLDL

卷积的引入,基于三方面考量:一是为了减少全连接网络对于large scale图像的计算复杂度;二是迎合了生物视觉系统的结构特征:视觉皮层是局部接受信息的;三是根据图像的stationary特性:图像的一个部分统计特性与其他部分是一样的(这个统计特性,比如说颜色直方图分布)。

卷积的具体做法

注意:这里小块在原图中的选取是有重叠的

图中实际上是预先训练了一个visible层9个神经元,hidden层1个神经元的全连接AE(AutoEncoder)。再对输入图像的每一个3X3=9的小块取特征(1维),最终得到1X[(5-3+1)X(5-3+1)]个特征。这里的紫色图,实际上就是下文介绍的Feature Map(FM),因为对每个3X3小块只提取1维特征(1个hidden神经元),因此就只有一个FM:有n个特征,就有n个FM。

这样做的目的,从计算的角度来说,(假设hidden层只有1个神经元):

全连接:1X5X5个权重(不考虑bias)

卷积:1X3X3个权重

二、池化(pooling) - 整理自UFLDL

在卷积过后,一般会接着做pooling,原因如下:

例如:对于一个 96X96 像素的图像,假设我们已经学习得到了400个定义在8X8输入上的特征,每一个特征和图像卷积都会得到一个(96 − 8 + 1) * (96 − 8 + 1) = 7921 维的卷积特征,由于有 400 个特征,所以每个样例 (example) 都会得到一个892 * 400 = 3,168,400
维的卷积特征向量。学习一个拥有超过 3 百万特征输入的分类器十分不便,并且容易出现过拟合 (over-fitting)。

就是在卷积得到的每个FM中,对每个给定大小的区域上做运算(这里是不重叠的),可以是取最大值或者取均值等等。

三、例子LeNet-5

1、INPUT -> C1

预先训练NN-C1:input层5X5=25,output层6

用训练好的NN-C1对原图片每个5X5小块(类似sliding window,有重叠采样)取6维特征:得到28X28个小块,每个小块用6维特征表示,即6@28X28。

此时6维的每维特征都有28X28个值,把它们放在一个图里,就变成了一个28X28的FeatureMap(FM),一共6张。

2、C1 -> S2

Subsampling,实际上就是pooling过程。

对每一张FM的每个2X2小块(类似不重叠的sliding window),也就是2X2=4个值做一个运算,简单点的就是取max和均值。复杂点的如下图的Cx到Sx+1部分,做一个线性加权然后放入sigmoid分类器。subsampling(pooling)最终得出一个值用来表示这个2X2小块。

3、S2 -> C3

预先训练NN-C3:input层5X5=25,output层16

一样是做卷积,但这里就有讲究了。C1的输入只是一张图(原图),此时的输入有6张图。

以下参考zouxy09

C3层也是一个卷积层,它同样通过5x5的卷积核去卷积层S2,然后得到的特征map就只有10x10个神经元,但是它有16种不同的卷积核,所以就存在16个特征map了。这里需要注意的一点是:C3中的每个特征map是连接到S2中的所有6个或者几个特征map的,表示本层的特征map是上一层提取到的特征map的不同组合(这个做法也并不是唯一的)。(这里是组合,就像人的视觉系统一样,底层的结构构成上层更抽象的结构,例如边缘构成形状或者目标的部分)。

刚才说C3中每个特征图由S2中所有6个或者几个特征map组合而成。为什么不把S2中的每个特征图连接到每个C3的特征图呢?原因有2点。第一,不完全的连接机制将连接的数量保持在合理的范围内。第二,也是最重要的,其破坏了网络的对称性。由于不同的特征图有不同的输入,所以迫使他们抽取不同的特征(希望是互补的)。

例如,存在的一个方式是:C3的前6个特征图以S2中3个相邻的特征图子集为输入。接下来6个特征图以S2中4个相邻特征图子集为输入。然后的3个以不相邻的4个特征图子集为输入。最后一个将S2中所有特征图为输入。这样C3层有1516个可训练参数和151600个连接。

4、C3 -> S4

与C1 -> S2类似,对C3的每一个FM中2X2的小块做一个运算。

5、S4 -> C5

预先训练NN-C5:input层5X5=25,output层120

这里S4每个FM是5X5大小,因此取小块之后在C5中表现出来的就是1X1的FM。

由于是全连接的,我认为这里对于5X5的输入,每一个输入都是16维的向量,也就是16X(5X5)。

6、C5 -> F6

普通的全连接神经网络

四、训练过程

1、看完UFLDL后,认为训练是每一层先训练一个local分类器。

2、看完其他介绍后的另一种想法,直接使用BP来对整个网络进行训练。

[Neural Networks] (Convolutional Neural Networks)CNN-卷积神经网络学习的更多相关文章

  1. Deep Learning论文笔记之(四)CNN卷积神经网络推导和实现(转)

    Deep Learning论文笔记之(四)CNN卷积神经网络推导和实现 zouxy09@qq.com http://blog.csdn.net/zouxy09          自己平时看了一些论文, ...

  2. CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别?

    https://www.zhihu.com/question/34681168 CNN(卷积神经网络).RNN(循环神经网络).DNN(深度神经网络)的内部网络结构有什么区别?修改 CNN(卷积神经网 ...

  3. CNN(卷积神经网络)、RNN(循环神经网络)、DNN,LSTM

    http://cs231n.github.io/neural-networks-1 https://arxiv.org/pdf/1603.07285.pdf https://adeshpande3.g ...

  4. Deep Learning模型之:CNN卷积神经网络(一)深度解析CNN

    http://m.blog.csdn.net/blog/wu010555688/24487301 本文整理了网上几位大牛的博客,详细地讲解了CNN的基础结构与核心思想,欢迎交流. [1]Deep le ...

  5. [转]Theano下用CNN(卷积神经网络)做车牌中文字符OCR

    Theano下用CNN(卷积神经网络)做车牌中文字符OCR 原文地址:http://m.blog.csdn.net/article/details?id=50989742 之前时间一直在看 Micha ...

  6. day-16 CNN卷积神经网络算法之Max pooling池化操作学习

    利用CNN卷积神经网络进行训练时,进行完卷积运算,还需要接着进行Max pooling池化操作,目的是在尽量不丢失图像特征前期下,对图像进行downsampling. 首先看下max pooling的 ...

  7. cnn(卷积神经网络)比较系统的讲解

    本文整理了网上几位大牛的博客,详细地讲解了CNN的基础结构与核心思想,欢迎交流. [1]Deep learning简介 [2]Deep Learning训练过程 [3]Deep Learning模型之 ...

  8. Keras(四)CNN 卷积神经网络 RNN 循环神经网络 原理及实例

    CNN 卷积神经网络 卷积 池化 https://www.cnblogs.com/peng8098/p/nlp_16.html 中有介绍 以数据集MNIST构建一个卷积神经网路 from keras. ...

  9. TensorFlow——CNN卷积神经网络处理Mnist数据集

    CNN卷积神经网络处理Mnist数据集 CNN模型结构: 输入层:Mnist数据集(28*28) 第一层卷积:感受视野5*5,步长为1,卷积核:32个 第一层池化:池化视野2*2,步长为2 第二层卷积 ...

  10. tensorflow CNN 卷积神经网络中的卷积层和池化层的代码和效果图

    tensorflow CNN 卷积神经网络中的卷积层和池化层的代码和效果图 因为很多 demo 都比较复杂,专门抽出这两个函数,写的 demo. 更多教程:http://www.tensorflown ...

随机推荐

  1. Linux I2C设备驱动编写(一)

    在Linux驱动中I2C系统中主要包含以下几个成员: I2C adapter 即I2C适配器 I2C driver 某个I2C设备的设备驱动,可以以driver理解. I2C client 某个I2C ...

  2. usaco 安慰奶牛

    Description 约翰有N个牧场,编号依次为1到N.每个牧场里住着一头奶牛.连接这些牧场的有P条 道路,每条道路都是双向的.第j条道路连接的是牧场Sj和Ej,通行需要Lj的时间.两牧场之 间最多 ...

  3. useradd、passwd、userdel

    useradd是新建用户 userdel -r 是删除用户 passwd是修改密码 groupadd是新建组 groupdel是删除组 useradd yonghu  为添加用户 echo " ...

  4. B树,B-树,B+树,B*树

    B树 即二叉搜索树: 1.所有非叶子结点至多拥有两个儿子(Left和Right): 2.所有结点存储一个关键字: 3.非叶子结点的左指针指向小于其关键字的子树,右指针指向大于其关键字的子树: 如: B ...

  5. 事物复制中大项目(Large Article)出问题如何快速修复

    事物日志中如果大的发布项目(Article)出问题了,并且影响了系统的使用,如何快速的解决? 一般的做法是重新用快照或者备份初始化,但是如果出问题的表非常大(上亿的记录,几十GB的数据),使用初始化是 ...

  6. tomcat+spring+https

    由于开发的接口需要ios调用,而ios即将只支持https,所以最近研究了一下,将成果放在这里记录一下: .配置tomcat的https: 原文链接:http://jingyan.baidu.com/ ...

  7. UIApplication和delegate

  8. Prof UIS相关

    Prof UIS 一款国外的VC++仿XP系统风格的免费界面库控件,含有近20个应用实例,每一个都可以顺利编译,用它生成的菜单类似OFFICE菜单一样,比起传统的窗体视觉舒服多了,VC编程的朋友对照文 ...

  9. 博客搬家到 http://fresky.github.io/ - Visual Studio的插件Pdbproj可以把pdb转换成C++项目

    博客搬到了Dawei XU,请各位看官挪步.最新的一篇是:Visual Studio的插件Pdbproj可以把pdb转换成C++项目.

  10. cas改造随笔

    原http://www.cnblogs.com/hellowood/archive/2010/08/05/1793364.html 键字: sso域名:cas.server.com 登陆地址(spri ...