Dropout 下(关于《Dropout: A Simple way to prevent neural networks from overfitting》)
先上菜单:
摘要:
Deep neural nets with a large number of parameters are very powerful machine learning systems. However, overfitting is a serious problem in such networks. Large networks are also slow to use, making it difficult to deal with overfitting by combining the predictions of many different large neural nets at test time. (具有大量参数的深度神经网络是非常强大的机器学习系统。然而,在这样的网络中,过度拟合是一个严重的问题。大型网络的使用速度也较慢,因此在测试时结合许多不同大型神经网络的预测,很难处理过度拟合问题。)Dropout is a technique for addressing this problem.The key idea is to randomly drop units (along with their connections) from the neural network during training. (dropout是解决这个问题的一种方法。关键思想是在训练过程中从神经网络中随机删除单元(以及它们的连接)。)This prevents units from co-adapting too much. During training,dropout samples from an exponential number of different “thinned” networks. At test time,it is easy to approximate the effect of averaging the predictions of all these thinned networks by simply using a single unthinned network that has smaller weights. (这就防止了单位过度的相互适应。在训练过程中,舍弃来自不同的指数级别的“稀疏”网络的样本。在测试时,只需使用一个权重较小的未减薄网络,就可以很容易地估计出所有这些变薄网络的平均预测效果。)This significantly reduces overfitting and gives major improvements over other regularization methods. We show that dropout improves the performance of neural networks on supervised learning tasks in vision, speech recognition, document classification and computational biology,obtaining state-of-the-art results on many benchmark data sets.(这大大减少了过度拟合,并对其他正则化方法进行了重大改进。实验结果表明,在视觉、语音识别、文档分类和计算生物学等方面,dropout都能提高神经网络在有监督学习任务中的性能,在许多基准数据集上都获得了最新的结果。)
Keywords: neural networks, regularization(正则化), model combination(模型组合), deep learning
先介绍一下本文结构:
本文的结构如下:第2节描述了这个想法的动机。第3节描述了以前的相关工作。第4节正式描述了dropout模型。第5节给出了训练dropout网络的算法。在第6节中,我们展示了我们的实验结果,我们将dropout应用于不同领域的问题,并与其他形式的正则化和模型组合进行了比较。第7节分析了dropout对神经网络不同性质的影响,并描述了dropout如何与网络的超参数相互作用。第8节描述了drop - RBM模型。在第9节中,我们探讨了边缘化dropout的概念。在附录A中,我们提供了一个训练dropout网的实用指南。这包括在训练drop - out网络时,选择超参数所涉及的实际考虑的详细分析。(背景部分:1-3节 ;方法部分:4-5节;实验及分析:6-7节;其他:8-10节;总结:11;附录:A-B)
(几个参考网站:
https://www.baidu.com/link?url=F-vklwp34FZsuOsiAw36yS2upENUfms5jn-R3VGUY3Pmhq210Q2c9K5N8YNN63BzYlCS9OPNUhl-eSms3QpNh9urQwhWo0HDis6G2MnoGm3&wd=&eqid=f9e01460000131a8000000055bceab97
https://blog.csdn.net/qq_25011449/article/details/81168369
https://blog.csdn.net/huplion/article/details/79208736
https://blog.csdn.net/u014422406/article/details/70257324?locationNum=2&fps=1
https://blog.csdn.net/lhc19940815/article/details/50907545
)
Dropout 下(关于《Dropout: A Simple way to prevent neural networks from overfitting》)的更多相关文章
- Dropout: A Simple Way to Prevent Neural Networks fromOverfitting
https://www.cs.toronto.edu/~hinton/absps/JMLRdropout.pdf Deep neural nets with a large number of par ...
- Deep Learning 23:dropout理解_之读论文“Improving neural networks by preventing co-adaptation of feature detectors”
理论知识:Deep learning:四十一(Dropout简单理解).深度学习(二十二)Dropout浅层理解与实现.“Improving neural networks by preventing ...
- 论文笔记系列-Simple And Efficient Architecture Search For Neural Networks
摘要 本文提出了一种新方法,可以基于简单的爬山过程自动搜索性能良好的CNN架构,该算法运算符应用网络态射,然后通过余弦退火进行短期优化运行. 令人惊讶的是,这种简单的方法产生了有竞争力的结果,尽管只需 ...
- PyNest——Part1:neurons and simple neural networks
neurons and simple neural networks pynest – nest模拟器的界面 神经模拟工具(NEST:www.nest-initiative.org)专为仿真点神经元的 ...
- DeepFool: a simple and accurate method to fool deep neural networks
目录 概 主要内容 二分类模型 为线性 为一般二分类 多分类问题 仿射 为一般多分类 Moosavidezfooli S, Fawzi A, Frossard P, et al. DeepFool: ...
- [CS231n-CNN] Training Neural Networks Part 1 : parameter updates, ensembles, dropout
课程主页:http://cs231n.stanford.edu/ ___________________________________________________________________ ...
- [Neural Networks] Dropout阅读笔记
多伦多大学Hinton组 http://www.cs.toronto.edu/~rsalakhu/papers/srivastava14a.pdf 一.目的 降低overfitting的风险 二.原理 ...
- 机器学习之神经网络模型-下(Neural Networks: Representation)
3. Model Representation I 1 神经网络是在模仿大脑中的神经元或者神经网络时发明的.因此,要解释如何表示模型假设,我们不妨先来看单个神经元在大脑中是什么样的. 我们的大脑中充满 ...
- 第六节,Neural Networks and Deep Learning 一书小节(下)
4.神经网络可以计算任何函数的可视化证明 神经网络拥有一定的普遍性,即包含一个隐藏层的神经网络可以被用来按照任意给定的精度来近似任何连续函数. 这一章使用一个实例来阐述神经网络是如何来近似一个一元函数 ...
随机推荐
- hdu 5372 Segment Game 【 树状数组 】
给出一些操作, 0是将第i次增加的线段放在b位置,第i次放的线段的长度为i 1是将第b次增加操作放的线段删除 每次增加操作完之后,询问这条线段上面的完整的线段的条数 每次询问统计比这条线段左端点大的线 ...
- node——含有异步函数的函数封装
在写代码时我们会发现有大量的重复代码,为了使代码更加简洁,我们可以将重复的代码封装为一个可以在多个部分时候用的函数. 之前写的新闻代码中,经常出现的操作有对文件的读取,我们可以将它封装为一个函数rea ...
- CF 689D - Friends and Subsequences
689D - Friends and Subsequences 题意: 大致跟之前题目一样,用ST表维护a[]区间max,b[]区间min,找出多少对(l,r)使得maxa(l,r) == minb( ...
- 实现js保留小数点后N位的代码
在JS中,一般实现保留小数点后N位的话,都是利用toFixed函数 <script language="javascript"> document.write(&quo ...
- multiple definition of
总结了解决multiple definition of的方法: 问题原因: 当多个文件包含同一个头文件时,并且你的.H里面没有加上条件编译#ifndef TEST_H#define TEST_H ...
- SpringBoot 消费NSQ消息
使用监听器,来实现实时消费nsq的消息 一.目前spring boot中支持的事件类型如下 ApplicationFailedEvent:该事件为spring boot启动失败时的操作 Applica ...
- php获取时间是星期几
PHP星期几获取代码: date("l"); //data就可以获取英文的星期比如Sundaydate("w"); //这个可以获取数字星期比如123,注意0是 ...
- 【codeforces 733F】Drivers Dissatisfaction
[题目链接]:http://codeforces.com/problemset/problem/733/F [题意] 给你n个点m条边; 让你从中选出n-1条边; 形成一个生成树; (即让n个点都联通 ...
- nginx配置修改
改变nginx配置想让它生效而不停止服务,如下两种方式都可以:1) 检查nginx配置: nginx -t; 配置重载: nginx -s reload2) 检查nginx配置: nginx -t; ...
- jdk动态代理(转)
一旦这样绑定后,那么在进入代理对象方法调用的时候就会到HelloServiceProxy的invoke方法上,invoke方法有三个参数:第一个proxy是代理对象,第二个是当前调用那个方法,第三个是 ...