p.p1 { margin: 0.0px 0.0px 0.0px 0.0px; font: 14.0px "Helvetica Neue"; color: #042eee } p.p2 { margin: 0.0px 0.0px 0.0px 0.0px; font: 14.0px "Helvetica Neue"; color: #323333 } p.p3 { margin: 0.0px 0.0px 0.0px 0.0px; font: 16.0px "…
p.p1 { margin: 0.0px 0.0px 0.0px 0.0px; font: 13.0px "Helvetica Neue"; color: #323333 } p.p2 { margin: 0.0px 0.0px 0.0px 0.0px; font: 13.0px "Helvetica Neue"; color: #042eee } p.p3 { margin: 0.0px 0.0px 0.0px 0.0px; font: 13.0px "…
相关论文:Joint Face Detection and Alignment using Multi-task Cascaded Convolutional Networks 概论 用于人脸检测和对齐. 本文提出的unified cascaded CNNs by multi-task learning,包含三个阶段: 1) 利用一个浅层的CNN快速产生候选窗口 2) 利用一个更复杂的CNN排除掉大量非人脸窗口 3) 利用一个更强大的CNN进一步改善结果,并输出人脸关键点位置. 本文的贡献: 1…
目录 Visualizing and Understanding Convolutional Networks 论文复现笔记 Abstract Introduction Approach Visualization with a Deconvnet 关于Deconvnet的实现 Convnet Visualization 对于一个给定的Feature map,论文中展示了最高的9个激活,并把每个激活投影到像素空间,同时对于可视化的像素空间,论文同样展示了相关的图片区域. 这个地方挺有意思的,也可…
<Joint Face Detection and Alignment using Multi-task Cascaded Convolutional Networks> 论文主要的三个贡献: (1)       揭示了检测和对齐之间的内在联系: (2)       提出了三个CNN级联的网络结构: (3)       提出了一种对于样本的新的hard mining的算法: 整个算法流程如下: Stage 1:采用全卷积神经网络,即P-Net,去获得候选窗体和边界回归向量.同时,候选窗体根据边…
毕设终于告一段落,传统方法的视觉做得我整个人都很奔溃,终于结束,可以看些搁置很久的一些论文了,嘤嘤嘤 Densely Connected Convolutional Networks 其实很早就出来了,cvpr 2017 best paper 觉得读论文前,还是把dense net的整个网络结构放到http://ethereon.github.io/netscope/#/editor 上面可视化看一下,会更加容易理解,总体这篇论文很好理解 上图是一个5层的dense block,每个dense…
这篇文章比较简单,但还是不想写overview,转自: https://blog.csdn.net/zimenglan_sysu/article/details/52451098 另外,读这篇paper的时候,一直想不明白白一个问题,就是他分出了\(k^2\)个Instance-sensitive score maps,他是怎么训练的..换句话说,ground truth是怎么弄的? 文章里只说了用logistics做损失函数,应该需要看代码,因为还没有搞分割的打算,先不详细了解代码. Inst…
目录 0. Paper link 1. Overview 2. position-sensitive score maps 2.1 Background 2.2 position-sensitive score maps 3. Architecture 3.1 backbone 3.2 Position-sensitive score maps & Position-sensitive RoI pooling 3.3 Training 3.4 Inference 3.5 À trous algo…
p.p1 { margin: 0.0px 0.0px 0.0px 0.0px; font: 13.0px "Helvetica Neue"; color: #323333 } p.p2 { margin: 0.0px 0.0px 0.0px 0.0px; font: 13.0px "Helvetica Neue"; color: #042eee } span.s1 { } span.s2 { text-decoration: underline } Is objec…
一.高效的训练     1.Large-batch training 使用大的batch size可能会减小训练过程(收敛的慢?我之前训练的时候挺喜欢用较大的batch size),即在相同的迭代次数下, 相较于使用小的batch size,使用较大的batch size会导致在验证集上精度下降.文中介绍了四种方法. Linear scaling learning rate 梯度下降是一个随机过程,增大batch size不会改变随机梯度的期望,但是减小了方差(variance).换句话说,增大…