前言

从接触深度学习开始一直都做的是人脸识别,基本上也一直都在用mxnet. 记得之前在刚接触的时候看到博客中写到,深度学习分三个层次,第一个层次是分类,第二个层次是检测,第三个层次是分割。人脸识别算是分类问题,也就是一直在第一个层次···一直都想有机会了解下第二个层次,奈何精力有限,工作中也没有实际的项目需要。最近正好有个不急的检测项目,趁此机会入门检测吧。工作中听同事提到yolov5效果不错,而且文档指导也比较丰富,因此选择从此入手,顺便也熟悉下pytorch。本文就以训练一个简单的皮卡丘检测作为入门吧,也激发下对检测的学习兴趣,暂时不涉及网络,anchor等细节的理解,只以训练完为目标。

环境准备

安装torch这些就不说了,本次训练基于yolov5官方项目:

https://github.com/ultralytics/yolov5

clone后,pip install -r requirements.txt安装各项依赖

基本的目录结构如下:

data: 训练数据和数据配置文件以及训练配置

models: 模型配置文件

utils: 数据读取、nms等各种训练测试中用到的脚本

weight:

train.py: 训练脚本

test.py:测试脚本

detect.py: 运行脚本

数据集准备

https://github.com/ultralytics/yolov5/wiki/Train-Custom-Data

根据官方指导,按需要的格式准备数据集:

  1. 一个图片文件对应一个同名的.txt label文件
  2. label文件中每一行表示一个目标,格式为:class x_center y_center box_width box_height, 其中数值都是归一化的。类别从0开始
  3. 按类似目录方式防止数据,yolov5通过将图片路径中最后一个images换成labels去寻找对应的标签
coco/images/000000109622.jpg  # image
coco/labels/000000109622.txt # label

本文中用的数据来源于 目标检测数据集(皮卡丘) 中,但原文是mxnet用的rec格式,因此需要转换成yolo格式。我已经转好了:

链接: 百度网盘数据集 提取码: rek1

下载后解压即可得到符合格式要求的数据。

数据示例:

训练前的配置

修改或新建dataset.yaml

在data目录下,我们可以看到一个coco.yaml,内容如下:

# COCO 2017 dataset http://cocodataset.org - first 128 training images
# Train command: python train.py --data coco128.yaml
# Default dataset location is next to /yolov5:
# /parent_folder
# /coco128
# /yolov5 # download command/URL (optional)
# download: https://github.com/ultralytics/yolov5/releases/download/v1.0/coco128.zip # train and val data as 1) directory: path/images/, 2) file: path/images.txt, or 3) list: [path1/images/, path2/images/]
train: ./data/coco128/images/train2017/ # 训练集图片路径
val: ./data/coco128/images/train2017/ # 验证集图片路径 # number of classes,类别数
nc: 80 # class names,类别名
names: ['person', 'bicycle', 'car', 'motorcycle', 'airplane', 'bus', 'train', 'truck', 'boat', 'traffic light',
'fire hydrant', 'stop sign', 'parking meter', 'bench', 'bird', 'cat', 'dog', 'horse', 'sheep', 'cow',
'elephant', 'bear', 'zebra', 'giraffe', 'backpack', 'umbrella', 'handbag', 'tie', 'suitcase', 'frisbee',
'skis', 'snowboard', 'sports ball', 'kite', 'baseball bat', 'baseball glove', 'skateboard', 'surfboard',
'tennis racket', 'bottle', 'wine glass', 'cup', 'fork', 'knife', 'spoon', 'bowl', 'banana', 'apple',
'sandwich', 'orange', 'broccoli', 'carrot', 'hot dog', 'pizza', 'donut', 'cake', 'chair', 'couch',
'potted plant', 'bed', 'dining table', 'toilet', 'tv', 'laptop', 'mouse', 'remote', 'keyboard', 'cell phone',
'microwave', 'oven', 'toaster', 'sink', 'refrigerator', 'book', 'clock', 'vase', 'scissors', 'teddy bear',
'hair drier', 'toothbrush']

仿照这个格式,建立皮卡丘数据集的配置文件:

# COCO 2017 dataset http://cocodataset.org - first 128 training images
# Train command: python train.py --data coco128.yaml
# Default dataset location is next to /yolov5:
# /parent_folder
# /coco128
# /yolov5 # download command/URL (optional)
# download: https://github.com/ultralytics/yolov5/releases/download/v1.0/coco128.zip # train and val data as 1) directory: path/images/, 2) file: path/images.txt, or 3) list: [path1/images/, path2/images/]
train: ./data/pikachu/images/train/ # 128 images
val: ./data/pikachu/images/val/ # 128 images # number of classes
nc: 1 # class names
names: ['pikachu']

训练参数配置

训练参数配置在data/hyp.finetune.yaml和hyp.scratch.yaml中,前者是finetune用的,后者是从头训练的。这次我们直接用hyp.finetune.yaml,先不做修改。

模型配置

模型配置在models/yolov5s.yaml中。目前也不做修改。

开始训练

训练使用train.py脚本,主要参数有:

--weights 预训练权重,“”表示从头训
--cfg 模型配置文件路径
--data 数据配置文件路径
--hyp 训练参数配置文件路径
--epochs 训练的epoch数
--batch-size
--img-size 网络的输入大小
--noautoanchor 是否自动计算anchor
--device 设备号
--workers dataloader线程数

还有很多其他参数,不过暂时用不上就先不管了,执行以下命令可开始训练,脚本会自动去下载yolov5s的预训练权重进行训练。

python train.py --weights yolov5.pt --data data/pikachu.yaml --hyp data/hyp.finetune.yaml --epochs 40 --img-size 320 --device 0 --batch-size 512

可视化

yolov5里面有两种可视化方式,一种是tensorboard, 一种是wandb。

其中wandb有两种使用方式,一种是到https://wandb.ai/home注册一个账号,在线使用。注册后新建项目,名字叫yolov5,然后本地安装配置wandb, 按提示输入必要的信息(API Key):

pip install wandb
wandb login

那么训练时就可以在自己的项目中看到如下画面,还是挺不错的,功能挺丰富:



不过这个网站挺卡的,好在wandb也有本地使用方式。

安装docker后
wandb local

参考:https://docs.wandb.ai/self-hosted/local

然后就可以本地访问了。

测试

有两个脚本和测试有关,test.py是用来跑测试集测性能的,detect.py是用来测试文件夹或摄像头的。

python detect.py --source data/images --weights yolov5s.pt --conf-thres 0.25

在run/detect下即可找到图像画有目标框的图像(也可以在执行detect.py的时候指定--view-img选项,即可显示图像):

结语

至此就训练出了一个简单的检测模型呢,虽然很简单,不过基本流程通了。在走通流程后就要继续了解实现的细节,如何调参等等了。可以从了解网络结构开始,可参考 [https://zhuanlan.zhihu.com/p/343195876](https://zhuanlan.zhihu.com/p/343195876

注:如果数据集链接过期了,关注 老司机的视觉屋,回复pikachu即可获取链接

yolov5实战之皮卡丘检测的更多相关文章

  1. 皮卡丘检测器-CNN目标检测入门教程

    目标检测通俗的来说是为了找到图像或者视频里的所有目标物体.在下面这张图中,两狗一猫的位置,包括它们所属的类(狗/猫),需要被正确的检测到. 所以和图像分类不同的地方在于,目标检测需要找到尽量多的目标物 ...

  2. 纯CSS3制作皮卡丘动画壁纸

    前言 明天就放假了,趁着今晚的空挡时间来写这篇博客——这是我昨晚实现的一个简单的CSS3动画效果.话说还得缘起我逛了一下站酷网,然后不小心看到了一张皮卡丘的手机壁纸,觉得很可爱,然后觉得这种效果是可以 ...

  3. BZOJ-2324 营救皮卡丘 最小费用可行流+拆下界+Floyd预处理

    准备一周多的期末,各种爆炸,回来后状态下滑巨快...调了一晚上+80%下午 2324: [ZJOI2011]营救皮卡丘 Time Limit: 10 Sec Memory Limit: 256 MB ...

  4. 【BZOJ 2324】 [ZJOI2011]营救皮卡丘

    Description 皮卡丘被火箭队用邪恶的计谋抢走了!这三个坏家伙还给小智留下了赤果果的挑衅!为了皮卡丘,也为了正义,小智和他的朋友们义不容辞的踏上了营救皮卡丘的道路. 火箭队一共有N个据点,据点 ...

  5. bzoj 2324 [ZJOI2011]营救皮卡丘(floyd,费用流)

    2324: [ZJOI2011]营救皮卡丘 Time Limit: 10 Sec  Memory Limit: 256 MBSubmit: 1777  Solved: 712[Submit][Stat ...

  6. BZOJ2324: [ZJOI2011]营救皮卡丘

    2324: [ZJOI2011]营救皮卡丘 Time Limit: 10 Sec  Memory Limit: 256 MBSubmit: 1359  Solved: 522[Submit][Stat ...

  7. BZOJ 2324: [ZJOI2011]营救皮卡丘( floyd + 费用流 )

    昨晚写的题...补发一下题解... 把1~N每个点拆成xi, yi 2个. 预处理i->j经过编号不超过max(i,j)的最短路(floyd) S->0(K, 0), S->xi(1 ...

  8. [BZOJ2324][ZJOI2011][最小费用最大流]营救皮卡丘

    [Problem Description] 皮卡丘被火箭队用邪恶的计谋抢走了!这三个坏家伙还给小智留下了赤果果的挑衅!为了皮卡丘,也为了正义,小智和他的朋友们义不容辞的踏上了营救皮卡丘的道路. 火箭队 ...

  9. 用css以写代码形式画一个皮卡丘

    我的个人网站是通过写代码的形式来形成一个网站的,前一阵子在某个大神的github上看到他用写代码的形式来完成一个皮卡丘,于是心血来潮花了半个小时,也完成了一个作品. 这其中涉及到的知识点也不是很复杂, ...

  10. [ZJOI2011]营救皮卡丘

    题目描述 皮卡丘被火箭队用邪恶的计谋抢走了!这三个坏家伙还给小智留下了赤果果的挑衅!为了皮卡丘,也为了正义,小智和他的朋友们义不容辞的踏上了营救皮卡丘的道路. 火箭队一共有N个据点,据点之间存在M条双 ...

随机推荐

  1. HTTP协议学习---(十二)理解转发与重定向

    解释一 转发是服务器行为,重定向是客户端行为.为什么这样说呢,这就要看两个动作的工作流程: 转发过程:客户浏览器发送http请求---->web服务器接受此请求-->调用内部的一个方法在容 ...

  2. RabbitMQ RPC问题

    1.服务器端代码:https://github.com/rabbitmq/rabbitmq-tutorials/blob/master/python/rpc_server.py 2.客户端代码:htt ...

  3. linux 命令及进程控制

    main.c  main.o/main.obj  main/main.exe          编译                连接 程序运行;      两步: gcc/g++  -c  mai ...

  4. 【Java每日一题】20170329

    20170328问题解析请点击今日问题下方的“[Java每日一题]20170329”查看(问题解析在公众号首发,公众号ID:weknow619) package Mar2017; public cla ...

  5. SpringBoot+WebSocket

    SpringBoot+WebSocket 只需三个步骤 导入依赖 <dependency> <groupId>org.springframework.boot</grou ...

  6. h5py库安装问题解决

    H5py官网教程完全有问题,这个大家都这么说,但是貌似问题出现在Numpy上,由于numpy的版本过高! 这里是官网的教程:http://docs.h5py.org/en/latest/build.h ...

  7. Android.DebugOnDevices

    真机调试Android http://www.cnblogs.com/junqilian/archive/2012/11/08/2760734.html

  8. 学习笔记之Kubernetes

    Kubernetes | Production-Grade Container Orchestration https://kubernetes.io/ Kubernetes is an open-s ...

  9. [实战篇]Tomcat发布项目-虚拟目录

    在二阶段学习的过程中,我一直使用MyEclipse的方式把工作空间的项目发布到webapps目录下,这种方式自我感觉在实际开发中应用能在70%左右,但是如何涉及到一些上传操作等操作, 从新发布项目之后 ...

  10. angularjs学习访问服务器(5)

    (1) 后台AngularController.java代码 package com.amy.controller; import java.util.ArrayList; import java.u ...