CIFAR和SVHN在各CNN论文中的结果
CIFAR和SVHN结果
- 加粗表示原论文中该网络的最优结果。
- 可以看出DenseNet-BC优于ResNeXt优于DenseNet优于WRN优于FractalNet优于ResNetv2优于ResNet。
- ResNeXt-29,8x64d表示29层,ResNeXt分支数为8,每个分支的bottleneck宽度为64。
- 这里记录的结果是使用了标准数据增强的test error。
- 因为有些论文会拿前人工作的次优结果对比,所以这些结果可能会和一些论文的实验数据有所出入。
| 网络 | 网络参数 | CIFAR10 | CIFAR100 | SVHN | 备注 |
|---|---|---|---|---|---|
| ResNet-110 | 1.7M | 6.61 | |||
| ResNet-110 | 1.7M | 6.41 | 27.22 | 2.01 | stochastic depth复现的 |
| ResNet-164 | 1.7M | 25.16 | resNetv2提中提到的 | ||
| ResNetv2-164 | 1.7M | 5.46 | 24.33 | ||
| ResNetv2-1001 | 10.2M | 4.69 | 22.68 | ||
| FractalNet-20 with drop | 38.6M | 4.60 | 1.87 | ||
| FractalNet-40 | 22.9M | 22.49 | |||
| WRN-40-4 | 8.9M | 4.53 | 21.18 | ||
| WRN-16-8 | 11.0M | 4.27 | 20.43 | ||
| WRN-28-10 | 36.5M | 4.00 | 19.25 | ||
| WRN-28-10 dropout | 36.5M | 3.89 | 18.85 | ||
| WRN-16-4 dropout | 1.64 | ||||
| ResNeXt-29,8x64d | 34.4M | 3.65 | 17.77 | ||
| ResNeXt-29,16x64d | 68.1M | 3.58 | 17.31 | ||
| DenseNet-40(k=12) | 1.0M | 5.24 | 24.42 | 1.79 | |
| DenseNet-100(k=12) | 7.0M | 4.10 | 20.20 | 1.67 | |
| DenseNet-100(k=24) | 27.2M | 3.74 | 19.25 | 1.59 | |
| DenseNet-BC-100(k=12) | 0.8M | 4.51 | 22.27 | 1.76 | |
| DenseNet-BC-250(k=24) | 15.3M | 3.62 | 17.60 | 1.74 | |
| DenseNet-BC-190(k=40) | 25.6M | 3.46 | 17.18 |
CIFAR数据集地址
http://www.cs.toronto.edu/~kriz/cifar.html
CIFAR和SVHN在各CNN论文中的结果的更多相关文章
- 【论文翻译】NIN层论文中英对照翻译--(Network In Network)
[论文翻译]NIN层论文中英对照翻译--(Network In Network) [开始时间]2018.09.27 [完成时间]2018.10.03 [论文翻译]NIN层论文中英对照翻译--(Netw ...
- Batch Normalization原理及其TensorFlow实现——为了减少深度神经网络中的internal covariate shift,论文中提出了Batch Normalization算法,首先是对”每一层“的输入做一个Batch Normalization 变换
批标准化(Bactch Normalization,BN)是为了克服神经网络加深导致难以训练而诞生的,随着神经网络深度加深,训练起来就会越来越困难,收敛速度回很慢,常常会导致梯度弥散问题(Vanish ...
- 小白经典CNN论文复现系列(一):LeNet1989
小白的经典CNN复现系列(一):LeNet-1989 之前的浙大AI作业的那个系列,因为后面的NLP的东西我最近大概是不会接触到,所以我们先换一个系列开始更新博客,就是现在这个经典的CNN复现啦(。・ ...
- Google关于Spanner的论文中分布式事务的实现
Google关于Spanner的论文中分布式事务的实现 Google在Spanner相关的论文中详细的解释了Percolator分布式事务的实现方式, 而且用简洁的伪代码示例怎么实现分布式事务; Pe ...
- 自然语言处理的CNN模型中几种常见的池化方法
自然语言处理的CNN模型中几种常见的池化方法 本文是在[1]的基础上进行的二次归纳. 0x00 池化(pooling)的作用 首先,回顾一下NLP中基本的CNN模型的卷积和池化的大致原理[2].f ...
- 思考卷积神经网络(CNN)中各种意义
原文:https://blog.csdn.net/aimreant/article/details/53145063 思考卷积神经网络(CNN)中各种意义 只是知道CNN是不够,我们需要对其进行解剖, ...
- KDD 2011 最佳工业论文中机器学习的实践方法-翻译
作者:黄永刚 Practical machine learning tricks from the KDD 2011 best industry paper 原文链接:http://blog.davi ...
- 大汇总 | 一文学会八篇经典CNN论文
本文主要是回顾一下一些经典的CNN网络的主要贡献. 论文传送门 [google团队] [2014.09]inception v1: https://arxiv.org/pdf/1409.4842.pd ...
- Google MapReduce/GFS/BigTable三大技术的论文中译版
今天查找分布式计算的有关资料,发现Google的三大核心技术MapReduce.GFS和BigTable的论文都已经被翻译成高质量的中文,更巧的是,这三篇中译版的原发地都是CSDN的Blog.其中最新 ...
随机推荐
- 延迟加载JavaScript
上代码: 这段代码放到HTML文档的</body>标签之前(靠近HTML文档底部).外部脚本的名称为defer.js. <script type="text/javascr ...
- c#基础 第五讲
using System;using System.Collections.Generic;using System.Linq;using System.Text;using System.Threa ...
- 【BZOJ4295】[PA2015]Hazard 乱搞
[BZOJ4295][PA2015]Hazard Description 有n个人在轮流玩赌博机,一开始编号为i的人有a[i]元钱.赌博机可以抽象为一个长度为m的仅包含1和-1的序列,若抽到1,那么你 ...
- angular 路由
在路由时传递数据 1. 在查询参数中传递数据 /product?id=1&name=2 => ActivatedRoute.queryParams[id] 2.在路由路径中传递数据 {p ...
- poj3233—Matrix Power Series
题目链接:http://poj.org/problem?id=3233 题目意思:给一个矩阵n*n的矩阵A和一个k,求一个式子 S = A + A2 + A3 + … + Ak. 这个需要用到等比数列 ...
- 2017 Multi-University Training Contest - Team 4——HDU6069&&Counting Divisors
题目链接:http://acm.hdu.edu.cn/showproblem.php?pid=6069 题目意思:首先解释一下d[n]这个函数表示n有多少个因子,百度一下可以知道这个函数是一个非完全积 ...
- Android 判断当前thread 是否是UI thread
在Android 中判断当前的Thread是否是UI Thread 的方法: 1. if (Looper.myLooper() == Looper.getMainLooper()) { // Curr ...
- C++之贪吃蛇
#include<iostream> #include<cstdio> #include<cstdlib> #include<ctime> #inclu ...
- git远程库与本地联系报错:fatal: Not a git repository (or any of the parent directories): .git
在github上新建了一个仓库,然后相与本地的仓库联系起来 $ git remote add origin https://github.com/lizhong24/mysite2.git fatal ...
- 使用Standford coreNLP进行中文命名实体识别
因为工作需要,调研了一下Stanford coreNLP的命名实体识别功能. Stanford CoreNLP是一个比较厉害的自然语言处理工具,很多模型都是基于深度学习方法训练得到的. 先附上其官网链 ...