lesson5-图像检测-小象cv
R-CNN:
2014,cnn为Alexnet
训练流程:
1)在imagenet上对cnn模型pre-train
2)使用所有ss生成区域对1)进行fine-tune ~softmax改为21维度
ground-truth:标记的真正的框~lou,阈值0.5~32个正样本,96个负样本
3)在2)的F7特征上训练线性svm分类器,正样本和负样本阈值分别为所有ground truth和lou小于0.3的ss区域
注意:输入的正样本U&负样本!所有自己得有定义
4)在2)的最后一个卷加层con5特征上训练bounding box回归模型
注意:每个类别训练一个回归模型,将ss提供的bounding box做重新映射即P->G
两种输入:原本的P和goundtruthG,
P对应中心位置(x,y)的px。。ph,G对应宽高尺寸(w,h)的Gx。。Gh,txty对应直角坐标系,twth对应极坐标系~所以有log(Gw/Gh)
测试阶段:校正量d帮助参数还原时在两种坐标系下用法不一
测试阶段:
1)selective search提取~2000区域/图片
2)将所有区域膨胀缩放到227*227
3)使用finetune过的alxenet计算2套特征,f7~svm~类别分值
--》非极大值抑制,lou》0.5,获取无冗余的区域子集~迭代~获得新候选区域
--》对新候选区域的con5特征进行bounding box回归~bbox偏差
--》bbox偏差来修正区域子集
缺点:每张图片的~2000区域都会计算cnn特征
SPP-NET:
输入整图,所有区域共享卷积计算~在conv5层输出提取所有区域的特征
SPP空间金字塔池化:
替换con5的pooling5;一个window(即ss得到的感兴趣区域)内3个level和21个bin~21段定长特征串接后得到增强特征;bin内使用max pooling;
不同尺寸的区域(ss得到)在conv5输出上提取特征,通过SPP后,映射到尺寸固定的全连接层上(SPP获取定长的特征)~最后一个conv和全连接层之间是全卷积,全尺寸卷积核大小和最后一个全连接层一致
训练阶段:
1)在imagenet上对cnn模型pre-train
2)计算所有ss区域的spp特征 -没有参数训练
3)使用2)特征finetune心得f6~f8层
4)计算3)的f7特征
5)使用4)特征训练svm分类器
6)使用2)特征训练boundingbox回归~boundingbox回归对应的是SPP层不是和r-cnn一样是con5的pool5
缺点:
仍有:特征存储太大;复杂的多阶段训练 训练时间~finetune+特征提取+svm/bbox
新问题:只能finetue全连接层,共享的图片集运算不可
fast rcnn:
实现end-to-end端对端单阶段训练,所以不需要离线存储特征文件~多任务损失函数
所以层都可以finetune
spp-net上的新技术:
1)ROI感兴趣区域池化层,即单一的spp金字塔池化~可以梯度回传~实现end2end
ROI池化层取代alexnet的第五个pooling,输出的特征和sppnet类似,只是更短
ROI梯度回传:非重叠部分类似maxpooling,重叠部分是多个重合区域的偏导之和
2)所任务损失函数
分类器loss:交叉熵+softmax~ -logpi
回归:偏差要做高斯归一化;物体类别时有回归loss,背景时无回归loss
训练:因为端对端,所以不需复杂的分阶段训练
在pre-trained模型上做finetune,初始模型性能最好为vgg
mini-batch sampling抽样:
hierarchical sampling分级抽样:
batch尺寸128(是每个batch中区域的数量不是图片的数量)=每个batch的图片数量2*每个图片的ROI数量64(ss算法得到) ~为了充分利用卷积层的共享计算,每个图片可以同时共享
ROI分类基于与goundtruth重叠:物体lou》0.5,背景lou在【0.1,0.5)
准确性:
端对端训练finetune的层数,fc6《conv3《conv2,finetune层数越多性能提:升越明显
训练时多阶段/多任务训练,和测试阶段bbox回归的不同组合使用mAP有差异
缺点:ss还是独立的
Fater rcnn:
区域建议也应该有conv5决定,应集成~ RPN网络
faster rcnn=fast rcnn + rpn,取代离线的selective search模块
进一步共享卷积层计算~因为区域建议也是由最后卷积层得到
基于attention机制~引导fast r-cnn关注区域
region proposals量少~300质优高precision高recall
RPN:
一种全卷机网络:3*3,256-d卷积层+relu作为conv5下一次,输出的256维特征分别送入以下
1*1,4k-d卷积层~输出k组proposal的offset(x,y,w,h)
1*1,2k-d卷积层~输出k组是/否为物体object
两者的输出共ROI池化层使用
参考组anchor box,k=9种三种尺寸/比例;中心和卷积核中心一致(如3*3卷积核);anchor的数量w*h*k,每个像素上都有,所有w*h
PRN需单独训练
loss:预测框、anchor框、ground truth框
也有指示函数~背景设为0
一个mini-batch只有一个图片,128正样本(与ground truth lou),128负样本
训练阶段:
1)训练RPN,IMAGENET上pretrain模型参数-》卷积层初始化
2)训练fast rcnn网络,IMAGENET上pretrain模型参数-》卷积层初始化,region proposal由1)的RPN生成
3)调优RPN,fast rcnn的卷积层参数-》卷积层初始化,固定卷积层,finetune剩余层
4)调优fast rcnn,固定卷积层,finetune剩余层,region proposal由3)得到
1)2)无卷积层共享
基于旧形态的cnn结构:Alexnet、vgg
特点L:全卷积子网络+全连接自网络,分别特征提取+特征分类
缺点:例如ROI-wise子网络不含隐含层~检测性能和分类性能不一致~检测网络的变换敏感性和分类网络的变换不变性矛盾
(卷积层越深,不变性越强,对变换越不敏感,因为后面的卷积层所带的位置信息越来越少)
R-FCN区域全卷机神经网络:
cnn全卷机趋势:resnet、googlenet~只剩1个全连接层
resnet-101 -》 conv91+ROI池化+conv10 ,resnet-101之前三个全连接层相当于前两个是隐藏层,若完全提出全连接层,木有隐藏层~改进,将conv拆解,中间插入ROI、
rcnn在检测中出现不适应性 + 应用两难
--》R-FCN,适应全卷积化cnn的结构,提出全卷机化设计
引入变换敏感性
1)位置敏感分值图,grid位置信息+类别判别
2)位置敏感池化,无训练参数 ~不需全连接层就可完成分类任务
实质:还是卷积层,只是通道信息发生了变化
resnet-101卷积网,pre-trained模型(imagenet),1*1降维(2048-》1024)
+RPN网~faster rcnn
+position-sensitive卷积网,池化后投票
位置敏感卷积层:
指,k平方(C+1)conv,~多个通道对位置、类别组合进行编码~不同的通道对应不同的网格位置和类别
相对位置:k*k个Grid(k=3)~对应ROI-pooling是3*3网格
位置敏感分值图:每个分类k*k个score map,score map=图片尺寸~score map是卷积的输出通道,3*3ROI池化指针对该通道,比如浅黄色~每一个颜色对应一个vote的一个bin,vote的通道数是C+1
vote再做均值池化,得到1*1大小通道数为C+1的特征图 --》softmax得到概率值
位置敏感ROI池化层:w*h的roi拆分从k*k个w/k*h/k的bin,不同颜色的bin对应不同颜色通道层(score map),bin内做均值池化-》输出k*k*(C+1)
loss:均值投票t:训练时用的anchor~xa和ground truth~x*,测试时用的anchor~xa和预测值x -》回归模型中t和t*即偏差要无限接近
背景没有回归,标记0
每个类别一个回归
训练:
OHEM(online hard example mining):
一个图片~1个batch~1个gpu ;一个图片~N个proposal~所有区域loss~loss排序~选前B个,包含正/负样本
fater rcnn的4步训练法:rpn和r-fcn交替训练,r-fcn把fast rcnn升级了
性能:r-fcn中卷积核k*k,1*1《3*3《5*5,因为提取的位置信息越精确
人脸数据集:
FDDB、IJB-A~指出难检测位置
行人检测数据集:Caltech
lesson5-图像检测-小象cv的更多相关文章
- OpenCV探索之路(二十五):制作简易的图像标注小工具
搞图像深度学习的童鞋一定碰过图像数据标注的东西,当我们训练网络时需要训练集数据,但在网上又没有找到自己想要的数据集,这时候就考虑自己制作自己的数据集了,这时就需要对图像进行标注.图像标注是件很枯燥又很 ...
- 『科学计算』图像检测微型demo
这里是课上老师给出的一个示例程序,演示图像检测的过程,本来以为是传统的滑窗检测,但实际上引入了selectivesearch来选择候选窗,所以看思路应该是RCNN的范畴,蛮有意思的,由于老师的注释写的 ...
- 使用YOLOv2进行图像检测
基本配置信息 tensorflow (1.4.0) tensorflow-tensorboard (0.4.0) Keras (2.1.5) Python (3.6.0) Anaconda 4.3.1 ...
- 第五讲_图像识别之图像检测Image Detection
第五讲_图像识别之图像检测Image Detection 目录 物体检测 ILSVRC竞赛200类(每个图片多个标签):输出类别+Bounding Box(x,y,w,h) PASCAL VOC 20 ...
- 基于opencv和qt的人脸检测小系统
摘要:利用opencv读取视频.图片并检测人脸,利用QT显示窗口,功能选择等 环境:Ubuntu18.04.OpenCV3.4.0.QT5.10.1 效果图: 代码如下(比较简单没什么注释): mai ...
- 发现PDF Transformer+转换的图像字体小了如何处理
ABBYY PDF Transformer+转换的原始图像字体太小怎么办?为了获得最佳文本识别效果,请用较高的分辨率扫描用极小字体打印的文档,否则很容易在转换识别时出错.下面小编就给大家讲讲该怎么解决 ...
- C#图像检测开源项目
AForge.NET AForge.NET is an open source C# framework designed for developers and researchers in the ...
- lesson4-图像分类-小象cv
CNN网络进化:AlexNet->VGG->GoogleNet->ResNet,深度8->19->22->152GoogleNet:Lsplit->trans ...
- 图像检测之sift and surf---sift中的DOG图 surf hessian
http://www.cnblogs.com/tornadomeet/archive/2012/08/17/2644903.html http://www.cnblogs.com/slysky/arc ...
随机推荐
- CentOS安装教程(VMware)
1.下载镜像文件 下载链接:https://wiki.centos.org/Download LinveCD--可装在CD光盘上启动的版本. LiveDVD--可装在DVD光盘上启动的版本. DVD1 ...
- learning ddr mode register MR0
- vue组件通信方式总结
对于vue来说,组件之间的消息传递是非常重要的,下面是我对组件之间消息传递的各种方式的总结,总共有8种方式. 1. props和$emit 父组件向子组件传递数据是通过prop传递的,子组件传递数据给 ...
- 锤子科技 Smartisan M1L 咖啡金 真皮背面 高配版 5.7
http://www.smartisan.com/m1/#/os 快人一步的OS http://www.smartisan.com/shop/#/buyphone?c=coffee&v= ...
- 经典DFS问题实践
八皇后问题: //八皇后问题 经典的DFS问题实践 #include<iostream> #include<cmath> #include<algorithm> # ...
- Observer,观察者模式,C++描述
body, table{font-family: 微软雅黑; font-size: 13.5pt} table{border-collapse: collapse; border: solid gra ...
- 生成器 Generators
function* quips(name) { yield "你好 " + name + "!"; yield "希望你能喜欢这篇介绍ES6的译文&q ...
- LeetCode 151 翻转字符串里的单词
题目: 给定一个字符串,逐个翻转字符串中的每个单词. 示例 1: 输入: "the sky is blue" 输出: "blue is sky the" 示例 ...
- 使用MyEclipse开发Java EE应用:用XDoclet创建EJB 2 Session Bean项目(二)
[MyEclipse最新版下载] 二.创建一个Session EJB – Part 1 MyEclipse中的EJB 2.x开发使用了EJB向导和集成XDoclet支持的组合. 每个EJB由三个基本部 ...
- Python基础学习(第4天)
Python进阶 第1课:词典(dictionary) 1.词典可以存储多个元素,存储多个元素的对象称为容器(container) 第2课:文本文件的读取写入 1.打开一个文件,用对象来代表这个文件 ...