本文采用的GoogLenet网络(代号Inception)在2014年ImageNet大规模视觉识别挑战赛取得了最好的结果,该网络总共22层. Motivation and High Level Considerations 提升深度神经网络的一个最直接的方法就是增加网络的大小.这包括增加网络的深度(网络的层数)和宽度(每一层神经元的个数).这种简单粗暴的方法有两个缺点:1)更大网络意味着更多数量的参数,这非常容易导致过拟合.2)更大的网络意味着要使用更多的计算资源. 解决这两个问题的一个基本的
GoogLeNet是谷歌(Google)研究出来的深度网络结构,为什么不叫“GoogleNet”,而叫“GoogLeNet”,据说是为了向“LeNet”致敬,因此取名为“GoogLeNet”,所以我们这里题目就叫GoogLeNet.后面我们为了方便就叫inception Net. Google Inception Net 首次出现在 ILSVRC 2014的比赛中(和VGGNet 同年),就以较大优势取得了第一名.那一届比赛中的 Inception Net 通常被称为inception V1,它
Deep learning:三十七(Deep learning中的优化方法) Deep learning:四十一(Dropout简单理解) Deep learning:四十三(用Hessian Free方法训练Deep Network) Deep learning:四十五(maxout简单理解) Deep learning:四十六(DropConnect简单理解) Deep learning:四十七(Stochastic Pooling简单理解) 这部分内容应属于以下[Converge]系列
致网友:如果你不小心检索到了这篇文章,请不要看,因为很烂.写下来用于作为我的笔记. 2014年,在LSVRC14(large-Scale Visual Recognition Challenge)中,Google团队凭借 googLeNet 网络取得了 the new state of the art. 论文 Going deeper with convolutions 就是对应该网络发表的一篇论文: 主要内容: 主要围绕着一个 Inception architecture 怎么提出讲的: 不明