arxiv上放出的物体检测的文章,在Pascal voc数据集上排第二。源码也已放出(https://github.com/sanghoon/pva-faster-rcnn),又可以慢慢把玩了。这篇文章遵循faster-rcnn“CNN feature extraction + region proposal + RoI classification”的pipeline,重新设计了feature extraction的网络结构。"The devil is in details",文章利用很多的cnn tricks,详述了网络设计的细节。

  • C.ReLU: Earlier building blocks in feature generation

C.ReLU是在ICML2016一篇文章提出。文章发现,CNN的初期阶段,神经元的激活值正好相反。C.ReLU把卷积输出的通道数减半,将输出与其负向输出级联,在没有损失正确率的情况下,获得两倍的加速。

  • Inception: Remaining building blocks in feature generation

Inception是GoogleNet的重要组成模块,却还没用在检测任务上。Inception中的1x1卷积核不仅能够增加网络的非线性,同时能够保持前一层的感受野,因此对小物体的检测有很好的作用。文中还把原来5x5的卷积核换成两个3x3的卷积核,减少参数,增加网络非线性和模块感受野。

  • HyperNet: Concatenation of multi-scale intermediate outputs

HyperNet将不同卷积阶段的卷积层级联起来,对同时需要分类和定位的检测任务来说有很好的效果。

论文的级联为:

combines 1) the last layer and 2) two intermediate layers whose scales are 2x and 4x of the last
layer, respectively.

  • The pvanet architecture

  • Deep network training

文章用了residual connections 和batch normalization加速网络收敛。BN层加在ReLU层后面,学习率根据plateau detection自动调整。
RPN用了25个anchor(5 scales(3,6,9,16,25),5 aspect ratios(0.5,0.557,1.0,1.5,2.0))。最后的全连接层使用了简单的SVD分解,map有部分降低,检测速度加快。

  • result

PVANET----Deep but Lightweight Neural Networks for Real-time Object Detection论文记录的更多相关文章

  1. PVANET: Deep but Lightweight Neural Networks for Real-time Object Detection

    URL: https://arxiv.org/abs/1608.08021 year: 2016 TL;DR PVANet 一个轻量级多物体目标检测架构, 遵循 "less channels ...

  2. [C1W3] Neural Networks and Deep Learning - Shallow neural networks

    第三周:浅层神经网络(Shallow neural networks) 神经网络概述(Neural Network Overview) 本周你将学习如何实现一个神经网络.在我们深入学习具体技术之前,我 ...

  3. Coursera, Deep Learning 1, Neural Networks and Deep Learning - week4, Deep Neural Networks

    Deep Neural Network Getting your matrix dimention right 选hyper-pamameter 完全是凭经验 补充阅读: cost 函数的计算公式: ...

  4. Coursera, Deep Learning 1, Neural Networks and Deep Learning - week1, Introduction to deep learning

    整个deep learing 系列课程主要包括哪些内容 Intro to Deep learning

  5. Coursera, Deep Learning 1, Neural Networks and Deep Learning - week3, Neural Networks Basics

    NN representation 这一课主要是讲3层神经网络 下面是常见的 activation 函数.sigmoid, tanh, ReLU, leaky ReLU. Sigmoid 只用在输出0 ...

  6. Coursera, Deep Learning 1, Neural Networks and Deep Learning - week2, Neural Networks Basics

    Logistic regression Cost function for logistic regression Gradient Descent 接下来主要讲 Vectorization Logi ...

  7. ReLU——Deep Sparse Rectifier Neural Networks

    1. 摘要 ReLU 相比 Tanh 能产生相同或者更好的性能,而且能产生真零的稀疏表示,非常适合自然就稀疏的数据. 采用 ReLU 后,在大量的有标签数据下,有没有无监督预训练模型取得的最好效果是一 ...

  8. DeepVO: Towards End-to-End Visual Odometry with Deep Recurrent Convolutional Neural Networks

    1.Introduction DL解决VO问题:End-to-End VO with RCNN 2.Network structure a.CNN based Feature Extraction 论 ...

  9. Combining STDP and Reward-Modulated STDP in Deep Convolutional Spiking Neural Networks for Digit Recognition

    郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! Abstract 灵长类视觉系统激发了深度人工神经网络的发展,使计算机视觉领域发生了革命性的变化.然而,这些网络的能量效率比它们的生物学对 ...

随机推荐

  1. VS2008编译bat

    工程文件为AirCode,批处理文件为bulit.bat(与*.sln文件在同级目录). 以下是批处理的代码: echo %~dp0 rem set build_config="Debug| ...

  2. Codeforces Round #341 Div.2 B. Wet Shark and Bishops

    题意:处在同一对角线上的主教(是这么翻译没错吧= =)会相互攻击 求互相攻击对数 由于有正负对角线 因此用两个数组分别保存每个主教写的 x-y 和 x+y 然后每个数组中扫描重复数字k ans加上kC ...

  3. 在VS2013中使用Log4net

    大致分为3个步骤 引用Log4net

  4. RestEasy 3.x 系列之四:使用Hibernate_Validator进行数据校验

    使用Hibernate_Validator进行数据校验,好处不言而喻:规范统一,低耦合度. 1.pom.xml <dependency> <groupId>org.hibern ...

  5. HA简介以及HBase简介

    HBase基础知识: 一,HMater节点:可以启动多个HMaster,通过Zookeeper的Master Election机制保证总有一个Master运行 1,为Region server 分配r ...

  6. linux学习笔记--vi与vim编辑器

    vi编辑器全名为Visual Interface,即为可视化接口,类似于Windows中的记事本 vim相当于是vi的一个升级版本,包含vi的一切操作命令,vim相对于vi做了哪些提升: 1.vim支 ...

  7. [转]Windows进程间通信的各种方法

    http://www.cnblogs.com/songQQ/archive/2009/06/03/1495764.html 道相似,不过它传输数据是通过不可靠的数据报(如TCP/IP协议中的UDP包) ...

  8. docker网络配置方法总结

    docker启动时,会在宿主主机上创建一个名为docker0的虚拟网络接口,默认选择172.17.42.1/16,一个16位的子网掩码给容器提供了65534个IP地址.docker0只是一个在绑定到这 ...

  9. IOS零碎技术整理(1)-后台运行

    这两天做关于离线通知的功能,总结了一点关于这方面的注意点:按Home键回到桌面后程序很快被挂起,系统将关闭程序的Socket监听,此时程序将不能继续执行网络请求等操作. 两种方式可以使程序继续存活一段 ...

  10. java内存的那些事

    在Java中,内存的管理分为以下几个部分: Heap:堆区域,存放对象实例,凡是New出来的东西都存放在此. Stack:栈区域,存放基本数据类型.常量.局部变量.对象的引用地址 Data Segme ...