接下来几天,将把自己最近读的关于图片分类的经典网络模型论文整理一遍。大概做个摘要。这些论文都是在imagenet上1.2 million数据训练出来的。

由于从这些预训练的网络训练的deep feature有良好的泛化能力,可以应用到其他不同的CV问题,而且比传统的hand-craft feature要好,所以得到广泛应用。

从AlexNet论文说起,ImageNet Classification with Deep Convolutional Neural Networks。

在ImageNet LSVRC-2010 2012表现突出

top-1误差率37.5%,以及top-5误差率17.0%

网络有6000万个参数和650,000个神经元

网络结构五个卷积层,以及某些卷积层后的池化层,以及最后的三个全连接层

引入正则化方法dropout

ReLU修正线性单元的引入,比tanh等要快的多

论文地址:https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf

接下来的NIN论文,Network In Network

NIN利用Global average pooling去掉了FC layer, 大大减少了模型大小

利用网络中的网络思想

论文地址:https://arxiv.org/pdf/1312.4400v3.pdf

VGG模型论文,VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION

可以看成是加深版本的AlexNet. 都是conv layer + FC layer

论文地址:https://arxiv.org/pdf/1409.1556.pdf

GoogLeNet模型,也称inceptionV1 Going Deeper with Convolutions

受NIN启发,各种sub-network和inception结构的设计,通过精心设计的设计实现的,允许增加网络的深度和宽度,提高了网络内部计算资源的利用率。

将1x1,3x3,5x5的conv和3x3的pooling,stack在一起,一方面增加了网络的width,另一方面增加了网络对尺度的适应性。

论文地址:http://arxiv.org/abs/1409.4842

InceptionV2论文 Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

改进V1,加入了BN层,减少了内部neuron的数据分布发生变化也就是文中说的Internal Covariate Shift,每一层的输入都服从N(0, 1)的高斯分布。

同是受到VGG启发用2个3x3的conv替代inception模块中的5x5,既降低了参数数量,提高训练速度。

论文地址: http://arxiv.org/abs/1502.03167

inceptionV3论文 Rethinking the Inception Architecture for Computer Vision

在v2的基础上改进是使用了分解(Factorization),将7x7分解成两个一维的卷积(1x7,7x1),将3x3分解成两个一维的卷积(1x3,3x1),加速计算的同时使得网络深度增加和网络的非线性更强。

网络输入从224x224变为了299x299,还设计了35x35/17x17/8x8等模块。

论文地址:http://arxiv.org/abs/1512.00567

inceptionV4论文 Inception-ResNet and the Impact of Residual Connections on Learning

Inception模块结合Residual Connection可以极大地加速训练,同时性能也有提升。

开源了Inception-ResNet v2网络模型后,经过优化精简Inception v4模型,相比Inception-ResNet v2网络模型性能差不多,但是网络复杂程度降低。

论文地址:http://arxiv.org/abs/1602.07261

Resnet模型论文,Deep Residual Learning for Image Recognition

引入残差,解决深层次的网络带来acc下降问题

论文地址:https://arxiv.org/pdf/1512.03385v1.pdf

经典的CNN网络模型概述的更多相关文章

  1. 经典分类CNN模型系列其五:Inception v2与Inception v3

    经典分类CNN模型系列其五:Inception v2与Inception v3 介绍 Inception v2与Inception v3被作者放在了一篇paper里面,因此我们也作为一篇blog来对其 ...

  2. Pytorch_第十篇_卷积神经网络(CNN)概述

    卷积神经网络(CNN)概述 Introduce 卷积神经网络(convolutional neural networks),简称CNN.卷积神经网络相比于人工神经网络而言更适合于图像识别.语音识别等任 ...

  3. tensorflow从训练自定义CNN网络模型到Android端部署tflite

    网上有很多关于tensorflow lite在安卓端部署的教程,但是大多只讲如何把训练好的模型部署到安卓端,不讲如何训练,而实际上在部署的时候,需要知道训练模型时预处理的细节,这就导致了自己训练的模型 ...

  4. 自己定义CNN网络模型并使用caffe训练

    caffe自带的例子中对mnist手写体数字训练使用的卷积神经网络是在lenet_train_test.prototxt中定义的,隐含层包含了2个卷积层,2个池化层,2个全连接层,1个激活函数层.网络 ...

  5. 吴裕雄--天生自然python Google深度学习框架:经典卷积神经网络模型

    import tensorflow as tf INPUT_NODE = 784 OUTPUT_NODE = 10 IMAGE_SIZE = 28 NUM_CHANNELS = 1 NUM_LABEL ...

  6. 经典网络LeNet5看卷积神经网络各层的维度变化

    本文介绍以下几个CNN经典模型:Lenet(1986年).Alexnet(2012年).GoogleNet(2014年).VGG(2014年).Deep Residual Learning(2015年 ...

  7. Windows下mnist数据集caffemodel分类模型训练及测试

    1. MNIST数据集介绍 MNIST是一个手写数字数据库,样本收集的是美国中学生手写样本,比较符合实际情况,大体上样本是这样的: MNIST数据库有以下特性: 包含了60000个训练样本集和1000 ...

  8. 大汇总 | 一文学会八篇经典CNN论文

    本文主要是回顾一下一些经典的CNN网络的主要贡献. 论文传送门 [google团队] [2014.09]inception v1: https://arxiv.org/pdf/1409.4842.pd ...

  9. CNN经典模型VGG

    VGG是一个很经典的CNN模型,接触深度学习的人大概都有所耳闻.VGG在2014年被提出并拿来参加ImageNet挑战赛,最终实现了92.3%的正确率,得到了当年的亚军.虽然多年过去,又有很多新模型被 ...

随机推荐

  1. Linux文件在系统中传输

    一.文件的传输 1.命令:scp scp file user@ip:/dir ##把当前系统目录下的文件file复制到另一个系统目录下 scp user@ip:/file dir 2.命令:rsync ...

  2. vue 问题集合 |

    vue做类似选项卡                                                 点击改变curIndex ,  选项内容显示用 v-show="$inde ...

  3. Deepgreen DB简介(转)

    原文链接   Deepgreen DB 全称 Vitesse Deepgreen DB,它是一个可扩展的大规模并行(通常称为MPP)数据仓库解决方案,起源于开源数据仓库项目Greenplum DB(通 ...

  4. (四) ffmpeg filter学习-filter命令学习

    http://blog.csdn.net/joee33/article/details/51946712 http://blog.csdn.net/tkp2014/article/details/53 ...

  5. 开源一款ftp软件——filezilla

    filezilla是一款高性能ftp/sftp文件工具,关于它的具体的介绍可参见其官网:https://www.filezilla.cn/.其原作者是Tim Kosse (tim.kosse@file ...

  6. ios逆向工程-动态分析

    先说说为什么要分析应用吧,如果你想从一个ios应用中获取有用的信息,或者你想修改该应用的一些功能,前提当然是要先知道该app的逻辑和结构了. 动态分享工具比较少,我们先分析个简单的,全民工具Cycri ...

  7. html5大纲算法(目录树)

    看了<CSS那些事儿>我一直遵循着给每个板块写一个h标签,并保持层次,比如导航条.焦点图我都写了一个缩进隐藏的h标签.这种规范一般人根本看不出来,即使是行内的大多数人也觉得没有必要.可是我 ...

  8. BZOJ5125: [Lydsy1712月赛]小Q的书架(DP决策单调性)

    题意:N个数,按顺序划分为K组,使得逆序对之和最小. 思路:之前能用四边形不等式写的,一般网上都还有DP单调性分治的做法,今天也尝试用后者写(抄)了一遍.即: 分成K组,我们进行K-1次分治,get( ...

  9. UITableView 滚动流程性优化

    影响 UITableView 滚动的流畅性的原因 1. 在代理方法中做了过多的计算占用了 UI 线程的时间 2.同上 3.Cell 中 view 的组织复杂   关于第一点,首先要明白 tablevi ...

  10. 洛谷 P3802 小魔女帕琪

    传送门 题目大意:7个东西,每个有ai个,只有选7次 把7个东西都选到了才行. 题解:7!排列数*每次选择的概率 代码: #include<iostream> #include<cs ...