Bag of Tricks for Image Classification with Convolutional Neural Networks笔记
以下内容摘自《Bag of Tricks for Image Classification with Convolutional Neural Networks》。
1 高效训练
1.1 大batch训练
当我们有一定资源后,当然希望能充分利用起来,所以通常会增加batch size来达到加速训练的效果。但是,有不少实验结果表明增大batch size可能降低收敛率,所以为了解决这一问题有人以下方法可供选择:
1.1.1 线性增加学习率
一句话概括就是batch size增加多少倍,学习率也增加多少倍。
例如最开始batch size=256时, lr=0.1。后面batch size变成b后,lr=\(0.1\times \frac{b}{256}\)
1.1.2 学习率warmup
在训练最开始,所有的参数都是随机初始化的,因此离最终的解还需要很多次迭代才能到达。一开始使用一个太大的学习率会导致不稳定,所以可以在最开始使用一个很小的学习率,然后逐步切换到默认的初始学习率。
例如我们可以设定在前面100个batch学习率由0线性增加到默认初始值0.1,也就是说每个batch学习率增加0.001
1.1.3 \(\gamma=0\) for BN layer
现在很多网络结构中都会用到BatchNorm层,而我们知道BN层会对数据作如下操作:
1.标准化输入: \(\hat{x_1}=\text{standardize}(x)\)
2.伸缩变换(scale transformation): \(\hat{x_2}=\gamma\hat{x_1}+\beta\)
上面步骤中的\(\gamma,\beta\)都是可学习的参数,分别初始化为0,1。
原文解释这样做的好处如下(没太懂什么意思,懂得麻烦解释一下):
Therefore, all residual blocks just return their inputs, mimics network that has less number of layers and is easier to train at the initial stage.
1.1.4 No bias decay
意思就是我们可以weight decay,但是不用做bias decay。
1.2 低精度训练
P. Micikevicius,et al. Mixed precision training.中提出将所有的参数和激活值用FP16存储,并且使用FP16来计算梯度。另外,所有的参数都需要一份FP32的拷贝用来做参数更新。另外将loss乘上一个标量以便求得的梯度范围可以与FP16对齐。
2. 模型设计Trick
下面以ResNet为例进行介绍有哪些模型设计的Trick。
下图示何凯明提出的ResNet的示意图,可以看到主要由三部分组成:
- input stem:主要是先用一个7*7的卷积核,后接一个最大池化
- stage2-4:每个stage最开始是先用下采样模块对输入数据维度做减半操作,注意不是直接使用池化,而是通过设置卷积stride=2实现的。下采样之后后接若干个残差模块。
- output:最后接上预测输出模块

下面介绍一下可以对上面的ResNet做哪些魔改:
- input stem改!
可以看到主要将7*7的卷积核改成了3个3*3的卷积核,这样效果类似,而且参数更少。

- stage中的down sampling部分的Path A和Path B都可以改:
- Path A:将stride=2从原来的1*1卷积核部分改到了3*3卷积核内

- Path B:该条路径只有一个卷积操作,没法像上面那样,所以加入了一个池化层。

- Path A:将stride=2从原来的1*1卷积核部分改到了3*3卷积核内
实验结果:
| Model | #params | FLOPs | Top-1 | Top-5 |
|---|---|---|---|---|
| ResNet-50 | 25 M | 3.8 G | 76.21 | 92.97 |
| ResNet-50-B | 25 M | 4.1 G | 76.66 | 93.28 |
| ResNet-50-C | 25 M | 4.3 G | 76.87 | 93.48 |
| ResNet-50-D | 25 M | 4.3 G | 77.16 | 93.52 |
3. 训练Trick
3.1 Cosine learning rate decay
计算公式如下:
\[
\eta_{t}=\frac{1}{2}\left(1+\cos \left(\frac{t \pi}{T}\right)\right) \eta
\]
其中\(\eta\)是初始化学习率。
示意图如下:

3.2 label smoothing
这个方法我在之前的一个项目中用过,但是感觉没什么效果,所以各种Trick还是得视情况而定,并不是万能的。
通常分类任务中每张图片的标签是one hot形式的,也就是说一个向量在其对应类别索引上设置为1,其他位置为0,形如[0,0,0,1,0,0]。
label smoothing就是将类别分布变得平滑一点,即
\[
q_{i}=\left\{\begin{array}{ll}{1-\varepsilon} & {\text { if } i=y} \\ {\varepsilon /(K-1)} & {\text { otherwise }}\end{array}\right.
\]
其中\(q_{i}\)就代表某一类的ground truth,例如如果\(i==y\),那么其最终真实值就是\(1-\varepsilon\),其它位置设置为\(\varepsilon /(K-1)\),而不再是。这里的\(\varepsilon\)是一个很小的常数。
3.3 Mixup
方法如下:
每次随机抽取两个样本进行加权求和得到新的样本,标签同样做加权操作。公式中的\(\lambda\in[0,1]\)是一个随机数,服从\(\text{Beta}(\alpha,\alpha)\)分布。
\[
\begin{aligned} \hat{x} &=\lambda x_{i}+(1-\lambda) x_{j} \\ \hat{y} &=\lambda y_{i}+(1-\lambda) y_{j} \end{aligned}
\]
Bag of Tricks for Image Classification with Convolutional Neural Networks笔记的更多相关文章
- 训练技巧详解【含有部分代码】Bag of Tricks for Image Classification with Convolutional Neural Networks
训练技巧详解[含有部分代码]Bag of Tricks for Image Classification with Convolutional Neural Networks 置顶 2018-12-1 ...
- Bag of Tricks for Image Classification with Convolutional Neural Networks
这篇文章来自李沐大神团队,使用各种CNN tricks,将原始的resnet在imagenet上提升了四个点.记录一下,可以用到自己的网络上.如果图片显示不了,点击链接观看 baseline mode ...
- Bag of Tricks for Image Classification with Convolutional Neural Networks论文笔记
一.高效的训练 1.Large-batch training 使用大的batch size可能会减小训练过程(收敛的慢?我之前训练的时候挺喜欢用较大的batch size),即在相同的迭代次数 ...
- Convolutional Neural Networks 笔记
1 Foundations of Convolutional Neural Networks 1.1 cv问题 图像分类.目标检测.风格转换.但是高像素的图片会带来许多许多的特征. 1.2 边缘检测( ...
- Notes on Large-scale Video Classification with Convolutional Neural Networks
Use bigger datasets for CNN in hope of better performance. A new data set for sports video classific ...
- Deep learning_CNN_Review:A Survey of the Recent Architectures of Deep Convolutional Neural Networks——2019
CNN综述文章 的翻译 [2019 CVPR] A Survey of the Recent Architectures of Deep Convolutional Neural Networks 翻 ...
- 《ImageNet Classification with Deep Convolutional Neural Networks》 剖析
<ImageNet Classification with Deep Convolutional Neural Networks> 剖析 CNN 领域的经典之作, 作者训练了一个面向数量为 ...
- 读convolutional Neural Networks Applied to House Numbers Digit Classification 的收获。
本文以下内容来自读论文以后认为有价值的地方,论文来自:convolutional Neural Networks Applied to House Numbers Digit Classificati ...
- [转]XNOR-Net ImageNet Classification Using Binary Convolutional Neural Networks
感谢: XNOR-Net ImageNet Classification Using Binary Convolutional Neural Networks XNOR-Net ImageNet Cl ...
随机推荐
- [技术博客]ubuntu+nginx+uwsgi+Django+https的部署
ubuntu+nginx+uwsgi+Django+https部署文档 配置机器介绍 操作系统:Ubuntu 18.04.2 LTS 64位 python版本:Python 3.6.7 Django版 ...
- k8s 相关的命令
查看node信息 kubectl describe node k8s-node- 查看dashboard token kubectl describe pod kubernetes-dashboard ...
- node学习基础
node特点 js运行时,非阻塞I/O,事件循环 模块导入导出 模块化 导入 require('./xxx') module.exports=xxx index.js module.exports = ...
- SQL Server 10分钟理解游标
概述 游标是邪恶的! 在关系数据库中,我们对于查询的思考是面向集合的.而游标打破了这一规则,游标使得我们思考方式变为逐行进行.对于类C的开发人员来着,这样的思考方式会更加舒服. 正常面向集合的思维方式 ...
- FEL表达式的用法
Fel是开放的,引擎执行中的多个模块都可以扩展或替换.Fel的执行主要是通过函数实现,运算符(+.-等都是Fel函数),所有这些函数都是可以替换的,扩展函数也非常简单. Fel有双引擎,同时支持解释执 ...
- ELK学习笔记之Kibana查询和使用说明
0x00 概述 elasticsearch构建在Lucene之上,过滤器语法和Lucene相同 Kibana接口概述 Kibana接口分为四个主要部分: 发现 可视化 仪表板 设置 我们将按照列出的顺 ...
- gitblit搭建
gitblit 1.8.0 + java7 下载安装java7 https://download.oracle.com/otn/java/jdk/7u80-b15/jdk-7u80-windows- ...
- 使用php函数防止SQL注入方法
什么是SQL注入? SQL注入是指在你系统防御之外,某人将一段Mysql语句注入到你的数据库.注入通常发生在系统要求用户输入数据的时候,比如用户名的输入,用户可能输入的不是一个用户名,而是一段SQL语 ...
- chrome安装插件
看了很多的解决办法,也试了很多种,有的有点用,有的只能用一次,最后成功了,在这里总结一下 一.首先下载 很多人下载的都ctx格式的,然后拖进去安装,用了一次就崩溃了,主要还是安装方式不对,一般需要将下 ...
- keras学习入门一
基本概念 1. 张量 tensor 所有的数据类型都可以看成是张量,可以看成是向量,矩阵在推广 张量的阶,有时候也叫维度,或是轴(axis) 0阶张量如 [] ,5 也叫做标量 1阶张量 如 [ 1, ...