1、YOLO V4模型训练的基本思路

  所有机器学习涉及模型训练,一般都有训练集、验证集、测试集,因此需要准备数据集。有了数据集,再调用训练的算法,获取训练的结果。v3、v4模型训练方法相同。

2、YOLO V4模型训练的体验

  利用已有数据,体验一下模型训练的各个步骤。

  网址:https://pjreddie.com/darknet/yolo/给出了模型训练的方法。

2.1、YOLO模型训练的数据集格式

  YOLO训练所要求的数据格式是PASCAL VOC或者COCO等标准数据集格式。

  darknet\build\darknet\x64\data\voc目录下,有一个voc_label.py文件,用于数据转换。涉及的数据集的格式为PASCAL VOC格式。

  关于PASCAL VOC格式的介绍,参见:

  关于Annotations的xml文件中,图像size的depth属性,含义为通道数,RGB图像,值为3。参见:https://blog.csdn.net/qq_18343569/article/details/47830503

2.2、构造VOC目录结构

  按照上面引用网文的说法,构造基本的目录结构:Annotations、JPEGImages以及ImageSets/Main。

  我这边正好搞到了VOC2012的训练/验证的数据集。

  如果要下载,地址:https://pjreddie.com/projects/pascal-voc-dataset-mirror/,文件都点大。

  先将VOC2012数据集复制到darknet\build\darknet\x64\data\voc目录下,结构如下:

darknet\build\darknet\x64\data\voc\VOCdevkit
darknet\build\darknet\x64\data\voc\VOCdevkit\VOC2012
darknet\build\darknet\x64\data\voc\VOCdevkit\VOC2012\...
...

2.3、执行voc_label.py文件

  voc_label.py文件的解析,可参考:《YOLO_DarkNet_解析之旅_voc_label.py的解析》(https://blog.csdn.net/Willen/article/details/83868164)。

  由于我使用VOC2012数据集,没有VOC2007,ImageSets/Main中,只有train,val和trainval文件,因此,需要修改voc_label.py文件。

#line7 修改
sets=[('2012', 'train'), ('2012', 'val'), ('2007', 'train'), ('2007', 'val'), ('2007', 'test')]
#==>
sets=[('2012', 'train'), ('2012', 'val'),('2012', 'trainval')]

  #否则,报错:

FileNotFoundError: [Errno 2] No such file or directory: 'VOCdevkit/VOC2007/ImageSets/Main/train.txt'

  然后,执行voc_label.py文件,在AnaConda环境下,执行下列语句:

(tensorflow) E:\workspace\darknet\build\darknet\x64\data\voc>python voc_label.py

  获取下列文件:

darknet\build\darknet\x64\data\voc\2012_train.txt
darknet\build\darknet\x64\data\voc\2012_val.txt
darknet\build\darknet\x64\data\voc\2012_trainval.txt
darknet\build\darknet\x64\data\voc\VOCdevkit\VOC2012\labels目录及文件

2.4、模型训练

  首先,修改darknet/build/darknet/x64/data中的voc.data。修改train和valid这两行的数据文件路径。

classes= 20
train = data/voc/2012_train.txt
valid = data/voc/2012_val.txt
#difficult = data/difficult_2007_test.txt
names = data/voc.names
backup = backup/

  然后执行下列语句:

darknet.exe detector train data/voc.data cfg/yolov4.cfg yolov4.weights

  最后一个参数为预训练权重文件,应该使用只包含卷积层的预训练权重文件,下载地址:https://pjreddie.com/media/files/darknet53.conv.74

  我这里担心训练时间过长,偷懒了,直接用yolov4.weights。

  运行结果如下:

E:\workspace\darknet\build\darknet\x64>darknet.exe detector train data/voc.data cfg/yolov4.cfg yolov4.weights
GPU isn't used
Used AVX
Used FMA & AVX2
OpenCV version: 4.2.0
yolov4
mini_batch = 8, batch = 64, time_steps = 1, train = 1
  layer   filters size/strd(dil)     input               output
  0 conv     32       3 x 3/ 1   608 x 608 x   3 -> 608 x 608 x 32 0.639 BF
  1 conv     64       3 x 3/ 2   608 x 608 x 32 -> 304 x 304 x 64 3.407 BF
  2 conv     64       1 x 1/ 1   304 x 304 x 64 -> 304 x 304 x 64 0.757 BF
  3 route 1                                     -> 304 x 304 x 64
  4 conv     64       1 x 1/ 1   304 x 304 x 64 -> 304 x 304 x 64 0.757 BF
  5 conv     32       1 x 1/ 1   304 x 304 x 64 -> 304 x 304 x 32 0.379 BF
  6 conv     64       3 x 3/ 1   304 x 304 x 32 -> 304 x 304 x 64 3.407 BF
  7 Shortcut Layer: 4, wt = 0, wn = 0, outputs: 304 x 304 x 64 0.006 BF
  8 conv     64       1 x 1/ 1   304 x 304 x 64 -> 304 x 304 x 64 0.757 BF
  9 route 8 2                                   -> 304 x 304 x 128
10 conv     64       1 x 1/ 1   304 x 304 x 128 -> 304 x 304 x 64 1.514 BF
11 conv   128       3 x 3/ 2   304 x 304 x 64 -> 152 x 152 x 128 3.407 BF
12 conv     64       1 x 1/ 1   152 x 152 x 128 -> 152 x 152 x 64 0.379 BF
13 route 11                                     -> 152 x 152 x 128
14 conv     64       1 x 1/ 1   152 x 152 x 128 -> 152 x 152 x 64 0.379 BF
15 conv     64       1 x 1/ 1   152 x 152 x 64 -> 152 x 152 x 64 0.189 BF
16 conv     64       3 x 3/ 1   152 x 152 x 64 -> 152 x 152 x 64 1.703 BF
17 Shortcut Layer: 14, wt = 0, wn = 0, outputs: 152 x 152 x 64 0.001 BF
18 conv     64       1 x 1/ 1   152 x 152 x 64 -> 152 x 152 x 64 0.189 BF
19 conv     64       3 x 3/ 1   152 x 152 x 64 -> 152 x 152 x 64 1.703 BF
20 Shortcut Layer: 17, wt = 0, wn = 0, outputs: 152 x 152 x 64 0.001 BF
21 conv     64       1 x 1/ 1   152 x 152 x 64 -> 152 x 152 x 64 0.189 BF
22 route 21 12                                 -> 152 x 152 x 128
23 conv   128       1 x 1/ 1   152 x 152 x 128 -> 152 x 152 x 128 0.757 BF
24 conv   256       3 x 3/ 2   152 x 152 x 128 ->   76 x 76 x 256 3.407 BF
25 conv   128       1 x 1/ 1     76 x 76 x 256 ->   76 x 76 x 128 0.379 BF
26 route 24                                     ->   76 x 76 x 256
27 conv   128       1 x 1/ 1     76 x 76 x 256 ->   76 x 76 x 128 0.379 BF
28 conv   128       1 x 1/ 1     76 x 76 x 128 ->   76 x 76 x 128 0.189 BF
29 conv   128       3 x 3/ 1     76 x 76 x 128 ->   76 x 76 x 128 1.703 BF
30 Shortcut Layer: 27, wt = 0, wn = 0, outputs: 76 x 76 x 128 0.001 BF
31 conv   128       1 x 1/ 1     76 x 76 x 128 ->   76 x 76 x 128 0.189 BF
32 conv   128       3 x 3/ 1     76 x 76 x 128 ->   76 x 76 x 128 1.703 BF
33 Shortcut Layer: 30, wt = 0, wn = 0, outputs: 76 x 76 x 128 0.001 BF
34 conv   128       1 x 1/ 1     76 x 76 x 128 ->   76 x 76 x 128 0.189 BF
35 conv   128       3 x 3/ 1     76 x 76 x 128 ->   76 x 76 x 128 1.703 BF
36 Shortcut Layer: 33, wt = 0, wn = 0, outputs: 76 x 76 x 128 0.001 BF
37 conv   128       1 x 1/ 1     76 x 76 x 128 ->   76 x 76 x 128 0.189 BF
38 conv   128       3 x 3/ 1     76 x 76 x 128 ->   76 x 76 x 128 1.703 BF
39 Shortcut Layer: 36, wt = 0, wn = 0, outputs: 76 x 76 x 128 0.001 BF
40 conv   128       1 x 1/ 1     76 x 76 x 128 ->   76 x 76 x 128 0.189 BF
41 conv   128       3 x 3/ 1     76 x 76 x 128 ->   76 x 76 x 128 1.703 BF
42 Shortcut Layer: 39, wt = 0, wn = 0, outputs: 76 x 76 x 128 0.001 BF
43 conv   128       1 x 1/ 1     76 x 76 x 128 ->   76 x 76 x 128 0.189 BF
44 conv   128       3 x 3/ 1     76 x 76 x 128 ->   76 x 76 x 128 1.703 BF
45 Shortcut Layer: 42, wt = 0, wn = 0, outputs: 76 x 76 x 128 0.001 BF
46 conv   128       1 x 1/ 1     76 x 76 x 128 ->   76 x 76 x 128 0.189 BF
47 conv   128       3 x 3/ 1     76 x 76 x 128 ->   76 x 76 x 128 1.703 BF
48 Shortcut Layer: 45, wt = 0, wn = 0, outputs: 76 x 76 x 128 0.001 BF
49 conv   128       1 x 1/ 1     76 x 76 x 128 ->   76 x 76 x 128 0.189 BF
50 conv   128       3 x 3/ 1     76 x 76 x 128 ->   76 x 76 x 128 1.703 BF
51 Shortcut Layer: 48, wt = 0, wn = 0, outputs: 76 x 76 x 128 0.001 BF
52 conv   128       1 x 1/ 1     76 x 76 x 128 ->   76 x 76 x 128 0.189 BF
53 route 52 25                                 ->   76 x 76 x 256
54 conv   256       1 x 1/ 1     76 x 76 x 256 ->   76 x 76 x 256 0.757 BF
55 conv   512       3 x 3/ 2     76 x 76 x 256 ->   38 x 38 x 512 3.407 BF
56 conv   256       1 x 1/ 1     38 x 38 x 512 ->   38 x 38 x 256 0.379 BF
57 route 55                                     ->   38 x 38 x 512
58 conv   256       1 x 1/ 1     38 x 38 x 512 ->   38 x 38 x 256 0.379 BF
59 conv   256       1 x 1/ 1     38 x 38 x 256 ->   38 x 38 x 256 0.189 BF
60 conv   256       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 256 1.703 BF
61 Shortcut Layer: 58, wt = 0, wn = 0, outputs: 38 x 38 x 256 0.000 BF
62 conv   256       1 x 1/ 1     38 x 38 x 256 ->   38 x 38 x 256 0.189 BF
63 conv   256       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 256 1.703 BF
64 Shortcut Layer: 61, wt = 0, wn = 0, outputs: 38 x 38 x 256 0.000 BF
65 conv   256       1 x 1/ 1     38 x 38 x 256 ->   38 x 38 x 256 0.189 BF
66 conv   256       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 256 1.703 BF
67 Shortcut Layer: 64, wt = 0, wn = 0, outputs: 38 x 38 x 256 0.000 BF
68 conv   256       1 x 1/ 1     38 x 38 x 256 ->   38 x 38 x 256 0.189 BF
69 conv   256       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 256 1.703 BF
70 Shortcut Layer: 67, wt = 0, wn = 0, outputs: 38 x 38 x 256 0.000 BF
71 conv   256       1 x 1/ 1     38 x 38 x 256 ->   38 x 38 x 256 0.189 BF
72 conv   256       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 256 1.703 BF
73 Shortcut Layer: 70, wt = 0, wn = 0, outputs: 38 x 38 x 256 0.000 BF
74 conv   256       1 x 1/ 1     38 x 38 x 256 ->   38 x 38 x 256 0.189 BF
75 conv   256       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 256 1.703 BF
76 Shortcut Layer: 73, wt = 0, wn = 0, outputs: 38 x 38 x 256 0.000 BF
77 conv   256       1 x 1/ 1     38 x 38 x 256 ->   38 x 38 x 256 0.189 BF
78 conv   256       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 256 1.703 BF
79 Shortcut Layer: 76, wt = 0, wn = 0, outputs: 38 x 38 x 256 0.000 BF
80 conv   256       1 x 1/ 1     38 x 38 x 256 ->   38 x 38 x 256 0.189 BF
81 conv   256       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 256 1.703 BF
82 Shortcut Layer: 79, wt = 0, wn = 0, outputs: 38 x 38 x 256 0.000 BF
83 conv   256       1 x 1/ 1     38 x 38 x 256 ->   38 x 38 x 256 0.189 BF
84 route 83 56                                 ->   38 x 38 x 512
85 conv   512       1 x 1/ 1     38 x 38 x 512 ->   38 x 38 x 512 0.757 BF
86 conv   1024       3 x 3/ 2     38 x 38 x 512 ->   19 x 19 x1024 3.407 BF
87 conv   512       1 x 1/ 1     19 x 19 x1024 ->   19 x 19 x 512 0.379 BF
88 route 86                                     ->   19 x 19 x1024
89 conv   512       1 x 1/ 1     19 x 19 x1024 ->   19 x 19 x 512 0.379 BF
90 conv   512       1 x 1/ 1     19 x 19 x 512 ->   19 x 19 x 512 0.189 BF
91 conv   512       3 x 3/ 1     19 x 19 x 512 ->   19 x 19 x 512 1.703 BF
92 Shortcut Layer: 89, wt = 0, wn = 0, outputs: 19 x 19 x 512 0.000 BF
93 conv   512       1 x 1/ 1     19 x 19 x 512 ->   19 x 19 x 512 0.189 BF
94 conv   512       3 x 3/ 1     19 x 19 x 512 ->   19 x 19 x 512 1.703 BF
95 Shortcut Layer: 92, wt = 0, wn = 0, outputs: 19 x 19 x 512 0.000 BF
96 conv   512       1 x 1/ 1     19 x 19 x 512 ->   19 x 19 x 512 0.189 BF
97 conv   512       3 x 3/ 1     19 x 19 x 512 ->   19 x 19 x 512 1.703 BF
98 Shortcut Layer: 95, wt = 0, wn = 0, outputs: 19 x 19 x 512 0.000 BF
99 conv   512       1 x 1/ 1     19 x 19 x 512 ->   19 x 19 x 512 0.189 BF
100 conv   512       3 x 3/ 1     19 x 19 x 512 ->   19 x 19 x 512 1.703 BF
101 Shortcut Layer: 98, wt = 0, wn = 0, outputs: 19 x 19 x 512 0.000 BF
102 conv   512       1 x 1/ 1     19 x 19 x 512 ->   19 x 19 x 512 0.189 BF
103 route 102 87                                 ->   19 x 19 x1024
104 conv   1024       1 x 1/ 1     19 x 19 x1024 ->   19 x 19 x1024 0.757 BF
105 conv   512       1 x 1/ 1     19 x 19 x1024 ->   19 x 19 x 512 0.379 BF
106 conv   1024       3 x 3/ 1     19 x 19 x 512 ->   19 x 19 x1024 3.407 BF
107 conv   512       1 x 1/ 1     19 x 19 x1024 ->   19 x 19 x 512 0.379 BF
108 max               5x 5/ 1     19 x 19 x 512 ->   19 x 19 x 512 0.005 BF
109 route 107                                           ->   19 x 19 x 512
110 max               9x 9/ 1     19 x 19 x 512 ->   19 x 19 x 512 0.015 BF
111 route 107                                           ->   19 x 19 x 512
112 max               13x13/ 1     19 x 19 x 512 ->   19 x 19 x 512 0.031 BF
113 route 112 110 108 107                       ->   19 x 19 x2048
114 conv   512       1 x 1/ 1     19 x 19 x2048 ->   19 x 19 x 512 0.757 BF
115 conv   1024       3 x 3/ 1     19 x 19 x 512 ->   19 x 19 x1024 3.407 BF
116 conv   512       1 x 1/ 1     19 x 19 x1024 ->   19 x 19 x 512 0.379 BF
117 conv   256       1 x 1/ 1     19 x 19 x 512 ->   19 x 19 x 256 0.095 BF
118 upsample                 2x   19 x 19 x 256 ->   38 x 38 x 256
119 route 85                                     ->   38 x 38 x 512
120 conv   256       1 x 1/ 1     38 x 38 x 512 ->   38 x 38 x 256 0.379 BF
121 route 120 118                               ->   38 x 38 x 512
122 conv   256       1 x 1/ 1     38 x 38 x 512 ->   38 x 38 x 256 0.379 BF
123 conv   512       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 512 3.407 BF
124 conv   256       1 x 1/ 1     38 x 38 x 512 ->   38 x 38 x 256 0.379 BF
125 conv   512       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 512 3.407 BF
126 conv   256       1 x 1/ 1     38 x 38 x 512 ->   38 x 38 x 256 0.379 BF
127 conv   128       1 x 1/ 1     38 x 38 x 256 ->   38 x 38 x 128 0.095 BF
128 upsample                 2x   38 x 38 x 128 ->   76 x 76 x 128
129 route 54                                     ->   76 x 76 x 256
130 conv   128       1 x 1/ 1     76 x 76 x 256 ->   76 x 76 x 128 0.379 BF
131 route 130 128                               ->   76 x 76 x 256
132 conv   128       1 x 1/ 1     76 x 76 x 256 ->   76 x 76 x 128 0.379 BF
133 conv   256       3 x 3/ 1     76 x 76 x 128 ->   76 x 76 x 256 3.407 BF
134 conv   128       1 x 1/ 1     76 x 76 x 256 ->   76 x 76 x 128 0.379 BF
135 conv   256       3 x 3/ 1     76 x 76 x 128 ->   76 x 76 x 256 3.407 BF
136 conv   128       1 x 1/ 1     76 x 76 x 256 ->   76 x 76 x 128 0.379 BF
137 conv   256       3 x 3/ 1     76 x 76 x 128 ->   76 x 76 x 256 3.407 BF
138 conv   255       1 x 1/ 1     76 x 76 x 256 ->   76 x 76 x 255 0.754 BF
139 yolo
[yolo] params: iou loss: ciou (4), iou_norm: 0.07, cls_norm: 1.00, scale_x_y: 1.20
nms_kind: greedynms (1), beta = 0.600000
140 route 136                                           ->   76 x 76 x 128
141 conv   256       3 x 3/ 2     76 x 76 x 128 ->   38 x 38 x 256 0.852 BF
142 route 141 126                               ->   38 x 38 x 512
143 conv   256       1 x 1/ 1     38 x 38 x 512 ->   38 x 38 x 256 0.379 BF
144 conv   512       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 512 3.407 BF
145 conv   256       1 x 1/ 1     38 x 38 x 512 ->   38 x 38 x 256 0.379 BF
146 conv   512       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 512 3.407 BF
147 conv   256       1 x 1/ 1     38 x 38 x 512 ->   38 x 38 x 256 0.379 BF
148 conv   512       3 x 3/ 1     38 x 38 x 256 ->   38 x 38 x 512 3.407 BF
149 conv   255       1 x 1/ 1     38 x 38 x 512 ->   38 x 38 x 255 0.377 BF
150 yolo
[yolo] params: iou loss: ciou (4), iou_norm: 0.07, cls_norm: 1.00, scale_x_y: 1.10
nms_kind: greedynms (1), beta = 0.600000
151 route 147                                           ->   38 x 38 x 256
152 conv   512       3 x 3/ 2     38 x 38 x 256 ->   19 x 19 x 512 0.852 BF
153 route 152 116                               ->   19 x 19 x1024
154 conv   512       1 x 1/ 1     19 x 19 x1024 ->   19 x 19 x 512 0.379 BF
155 conv   1024       3 x 3/ 1     19 x 19 x 512 ->   19 x 19 x1024 3.407 BF
156 conv   512       1 x 1/ 1     19 x 19 x1024 ->   19 x 19 x 512 0.379 BF
157 conv   1024       3 x 3/ 1     19 x 19 x 512 ->   19 x 19 x1024 3.407 BF
158 conv   512       1 x 1/ 1     19 x 19 x1024 ->   19 x 19 x 512 0.379 BF
159 conv   1024       3 x 3/ 1     19 x 19 x 512 ->   19 x 19 x1024 3.407 BF
160 conv   255       1 x 1/ 1     19 x 19 x1024 ->   19 x 19 x 255 0.189 BF
161 yolo
[yolo] params: iou loss: ciou (4), iou_norm: 0.07, cls_norm: 1.00, scale_x_y: 1.05
nms_kind: greedynms (1), beta = 0.600000
Total BFLOPS 128.459
avg_outputs = 1068395
Loading weights from yolov4.weights...
seen 64, trained: 32032 K-images (500 Kilo-batches_64)
Done! Loaded 162 layers from weights-file
Learning Rate: 0.0013, Momentum: 0.949, Decay: 0.0005
If error occurs - run training with flag: -dont_show
Saving weights to backup//yolov4_final.weights
Create 6 permanent cpu-threads

  结果在darknet\build\darknet\x64\backup目录,生成一个yolov4_final.weights。

  训练很快就完成了。这是因为初始权重文件yolov4.weights,已经是根据上述数据训练的,迭代终止条件立即满足。可以认为:yolov4_final.weights和yolov4.weights是相同的。

  至此,基本的模型训练体验完毕。下面的工作,是结合实际应用来实现自己的模型训练。

3、训练自己的模型

3.1、建立自己的VOC目录结构

  构造基本的VOC目录结构:Annotations、JPEGImages以及ImageSets/Main。

  为了简单起见,仍可使用voc_label.py文件,我按如下方式构造目录:

#在VOCdevkit目录下创建VOC2020
darknet\build\darknet\x64\data\voc\VOCdevkit\VOC2020
#创建三个基本子目录
darknet\build\darknet\x64\data\voc\VOCdevkit\VOC2020\Annotations
darknet\build\darknet\x64\data\voc\VOCdevkit\VOC2020\JPEGImages
darknet\build\darknet\x64\data\voc\VOCdevkit\VOC2020\ImageSets
#ImageSets目录再创建Main子目录
darknet\build\darknet\x64\data\voc\VOCdevkit\VOC2020\ImageSets\Main

  (下列所有修改,应该先备份一下原文件)

  修改voc_label.py文件:

sets=[('2020', 'train'), ('2020', 'val'),('2020', 'trainval'),('2020', 'test')]

  修改darknet\build\darknet\x64\data目录下的voc.data文件的对应行:

train  = data/voc/2020_train.txt
valid = data/voc/2020_val.txt

3.2、设置自己的分类

  关于分类,网上资料显示,VOC数据集分类最大20个,COCO数据集最大80个,这个最大分类数可以调整为自己需要的数值,当然分类很多时,需要使用YOLO9000模型。

  参考了下列资料:

  假设自己的分类数为[n],则需要修改之处有:

  1)修改darknet\build\darknet\x64\data\voc.names

  将自己的[n]个分类标签输入,每个分类一行。

  2)修改darknet\build\darknet\x64\data\voc.data

classes= 20 ==>  classes= [n]

  3)修改darknet\build\darknet\x64\cfg\yolov4.cfg

[yolo]标签下:
classes=80 ==> classes= [n]

[yolo]标签前面的一个[convolutional]标签:
filters=255 ==> filters=([n]+5)*3

3.3、标注自己的数据

  使用labelImg工具来进行标注工作,参见《windows下使用labelImg标注图像》(https://blog.csdn.net/python_pycharm/article/details/85338801)。

  这是一个费时的工作。

  图片放置在JPEGImages目录下,最好按编号命名。对应的labelImg生成的标注文件,放入Annotations目录下,命名与图片文件名一致。

  然后,生成ImageSets/Main下的文件。网上有makeTxt.py文件,生成train,val,test,trainval文件,参见:https://blog.csdn.net/public669/article/details/98020800)。

  但我发现这是相当于执行了voc_label.py后,生成的文件。暂时可以用这个方法。

  问题

  目前VOC2012/ImageSets/Main目录下的文件形式,是按类型分的。如car这个分类,有下列文件:

car_train.txt
car_val.txt
car_trainval.txt

  考虑到后续处理的需要,需要一个新的处理python脚本。基本思路是:扫描分类文件voc.names,针对每一个分类,扫描Annotations中的文件,检测是否包含这个分类的对象,设置[flag]为1或-1,加入这个分类的list对象,最后再打散,生成各个分类的train,val,test,trainval文件。

3.4、后续工作

  类似于2.3和2.4步,执行训练即可。我目前还没有开始具体应用分类试验,暂时先进行到此。

YOLO V4的模型训练的更多相关文章

  1. YOLO v4分析

    YOLO v4分析 YOLO v4 的作者共有三位:Alexey Bochkovskiy.Chien-Yao Wang 和 Hong-Yuan Mark Liao.其中一作 Alexey Bochko ...

  2. YOLO v1到YOLO v4(下)

    YOLO v1到YOLO v4(下) Faster YOLO使用的是GoogleLeNet,比VGG-16快,YOLO完成一次前向过程只用8.52 billion 运算,而VGG-16要30.69bi ...

  3. YOLO v1到YOLO v4(上)

    YOLO v1到YOLO v4(上) 一.  YOLO v1 这是继RCNN,fast-RCNN和faster-RCNN之后,rbg(RossGirshick)针对DL目标检测速度问题提出的另外一种框 ...

  4. 目标检测中特征融合技术(YOLO v4)(下)

    目标检测中特征融合技术(YOLO v4)(下) ASFF:自适应特征融合方式 ASFF来自论文:<Learning Spatial Fusion for Single-Shot Object D ...

  5. 目标检测中特征融合技术(YOLO v4)(上)

    目标检测中特征融合技术(YOLO v4)(上) 论文链接:https://arxiv.org/abs/1612.03144 Feature Pyramid Networks for Object De ...

  6. 使用yolo3模型训练自己的数据集

    使用yolo3模型训练自己的数据集 本项目地址:https://github.com/Cw-zero/Retrain-yolo3 一.运行环境 1. Ubuntu16.04. 2. TensorFlo ...

  7. 从软件开发到 AI 领域工程师:模型训练篇

    前言 4 月热播的韩剧<王国>,不知道大家有没有看?我一集不落地看完了.王子元子出生时,正逢宫内僵尸作乱,元子也被咬了一口,但是由于大脑神经元尚未形成,寄生虫无法控制神经元,所以医女在做了 ...

  8. [Kaggle] dogs-vs-cats之模型训练

    上一步建立好模型之后,现在就可以训练模型了. 主要代码如下: import sys #将当期路径加入系统path中 sys.path.append("E:\\CODE\\Anaconda\\ ...

  9. A TensorBoard plugin for visualizing arbitrary tensors in a video as your network trains.Beholder是一个TensorBoard插件,用于在模型训练时查看视频帧。

    Beholder is a TensorBoard plugin for viewing frames of a video while your model trains. It comes wit ...

随机推荐

  1. Charles的功能(web)

    # 验证是否可以获取web端的https接口 1. 打开Charles 2.打开游览器输入数据 3. 查看Charles 4.从上图所看,能获取htpps的包数据,即可对web端进行抓包 4.char ...

  2. readdir_r()读取目录内容

    readdir()在多线程操作中不安全,Linux提供了readdir_r()实现多线程读取目录内容操作. #include <stdio.h> #include <stdlib.h ...

  3. 如何在Mac OS X中开启VIM语法高亮和显示行号

    VIM (Wikipedia图) Vim 是一款相当给力的源自UNIX平台的命令行文本编辑器,不过不给力的是,Mac OS X下并没有诸多Linux发行版上VIM那些牛逼哄哄的神马代码高亮显示啊,自动 ...

  4. 80行代码教你写一个Webpack插件并发布到npm

    1. 前言 最近在学习 Webpack 相关的原理,以前只知道 Webpack 的配置方法,但并不知道其内部流程,经过一轮的学习,感觉获益良多,为了巩固学习的内容,我决定尝试自己动手写一个插件. 这个 ...

  5. Spring AOP获取不了增强类(额外方法)或无法通过getBean()获取对象

    Spring AOP获取不了增强类(额外方法)和无法通过getBean()获取对象 今天在学习AOP发现一个小问题 Spring AOP获取不了额外方法,左思右想发现是接口上出了问题 先上代码 获取不 ...

  6. CentOS Linux搭建独立SVN Server全套流程(修改svn仓库地址、服务启动等)

    CentOS Linux搭建独立SVN Server全套流程(修改svn仓库地址.服务启动等) 原 一事能狂便少年 发布于 2016/12/27 11:16 字数 1113 阅读 1.3K  收藏 0 ...

  7. 《SystemVerilog验证-测试平台编写指南》学习 - 第3章 过程语句和子程序

    <SystemVerilog验证-测试平台编写指南>学习 - 第3章 过程语句和子程序 3.1 过程语句 3.2 任务.函数以及void函数 3.3 任务和函数概述 3.4 子程序参数 3 ...

  8. html原生js实现99乘法表

    原生的js实现99乘法表实现选择下拉框颜色,改变背景颜色为选中的颜色 <!DOCTYPE html> <html> <head> <meta charset= ...

  9. SpringMVC=>解决JSON乱码问题

    <!-- 解决JSON乱码问题 --> <mvc:annotation-driven> <mvc:message-converters register-defaults ...

  10. 『言善信』Fiddler工具 — 4、Fiddler面布局详解【工具栏】

    目录 (一)工具栏详细介绍 1.第一组工具: 2.第二组工具: 3.第三组工具: 4.第四组工具: (二)工具栏使用说明 1.Fiddler修改代理端口: 2.过滤Tunnel to...443请求链 ...