9.SSD目标检测之三:训练失败记录(我为什么有脸写这个……)

这个大概折腾了三四天,反正我能想到改的地方都改了,笔记本上试过了,宿舍的电脑上也试过了,反正就是不行,我也没什么办法了,后面就转向YoloV3了。尽管失败了,还是记录一下。 我具体怎么做的就写在下面:

1 下载源码框架。

地址:https://github.com/balancap/SSD-Tensorflow 下载下来解压。

2 创建tfrecord_,train_model,VOC2007三个文件夹。

主目录下创建,当然名称不一定是这样,主要是为了减少源码修改。分别是存储tfrecord格式的训练数据,存储训练的模型以及存储原始VOC格式的训练数据用的,这个时候就可以把上一篇做好的VOC格式的训练数据复制过来了。

3 生成.tfrecords训练文件。

这里面有几个需要修改的文件:

  • datasets/pascalvoc_common.py 改掉原始的标签,把自己的标签填入。比如我改完就是这样。0号标签不要动,是背景。
  • datasets/pascalvoc_to_tfrecords.py

line 67: 这里的作用主要是几个xml文件生成一个tfrecords,这样做的原因作者的readme文件里也说的很清楚:(虽然我并不是特别理解)。

另外,修改,83行的读取方式和图片类型:

  • 运行tf_convert_data.py文件,点击run,Edit_configuration,在parameters中填入预编译命令:
--dataset_name=pascalvoc
--dataset_dir=./VOC2007/        #VOC文件夹
--output_name=voc_2007_train     #输出名称的前缀
--output_dir=./tfrecords_       #目标文件夹

./tfrecords_文件夹中生成了tcrecords文件的话就表明生成成功了。

3. 训练代码调整。

  • datasets/pascalvoc_2007.py 修改数据的shape:

几个参数解释一个:TRAIN_STATISTICS中的格式是:类别:(训练集个数,当前类别标签数)。 比如对于person类来说,包含其的共有100张照片,这100张照片中一共有150个人的标签。就是这么个意思。 TEST_STATISTICS中就不用说了,照着填就可以了。 SPLIT_TO_SIZE中train就是训练基的个数,Test是测试集的个数,我是全部用作训练了(因为数据量很少,所以测试集就随便写了一个数,这个在训练的时候是不影响的)。

  • nets/ssd_vgg_300.py line 96,97:修改为类别+1.
  • eval_ssd_network.py line 66:修改类别数:
  • train_ssd_network.py 有几个要改的地方: line27: 数据格式改成 NHWC line135: 类别个数: 类别数+1 line154: 训练步数:这个自己改了,先给的小的训练看下loss。

4.下载预训练模型。

我们基于VGG16的预训练模型来训练,提供个网盘吧: 链接:https://pan.baidu.com/s/1nlHYtH9qUO0gBQPzmNZL-w 提取码:jcig 下载之后解压到checkpoint文件夹中。

5.训练。

train_ssd_network.py来配置预编译命令,点击run,Edit_configuration,在parameters中填入预编译命令: 这里比较多,主要关注下最后面的几个,我写在注释里。

--train_dir=./train_model/
--dataset_dir=./tfrecords_/
--dataset_name=pascalvoc_2007
--dataset_split_name=train
--model_name=ssd_300_vgg
--checkpoint_path=./checkpoints/vgg_16.ckpt
--checkpoint_model_scope=vgg_16
--checkpoint_exclude_scopes=ssd_300_vgg/conv6,ssd_300_vgg/conv7,ssd_300_vgg/block8,ssd_300_vgg/block9,ssd_300_vgg/block10,ssd_300_vgg/block11,ssd_300_vgg/block4_box,ssd_300_vgg/block7_box,ssd_300_vgg/block8_box,ssd_300_vgg/block9_box,ssd_300_vgg/block10_box,ssd_300_vgg/block11_box
--trainable_scopes=ssd_300_vgg/conv6,ssd_300_vgg/conv7,ssd_300_vgg/block8,ssd_300_vgg/block9,ssd_300_vgg/block10,ssd_300_vgg/block11,ssd_300_vgg/block4_box,ssd_300_vgg/block7_box,ssd_300_vgg/block8_box,ssd_300_vgg/block9_box,ssd_300_vgg/block10_box,ssd_300_vgg/block11_box
--save_summaries_secs=60
--save_interval_secs=600       #保存模型的时间
--weight_decay=0.0005          #初始化权重
--optimizer=adam                   #优化器
--learning_rate=0.001            #学习率,这个一开始可以给大一点看一下loss
--learning_rate_decay_factor=0.94      #学习率退火系数。
--batch_size=24           #batch_size
--gpu_memory_fraction=0.9         #GPU使用率

如果出现GPU内存分配的问题的话就可以把batch_size改小一点或者GPU使用率这个系数改小一些。 这样的话就可以开始训练了。

6.总结

我最后遇到的问题就是训练的时候loss居高不下,最终也都是在20-100之间跳跃,这个loss太大了一些,所以也没有用保存的模型来看一下测试结果。 我猜想了几种可能。

  • 训练数据量太少? 按照我大量参考的博客来讲,150张训练样本并不算少,而且为了消除这个疑虑,我用VOC的数据也训练了一段时间(大概四个小时),loss也是降不下来。所以基本排除了训练数据的问题。
  • 设置有问题? 反正照着前面的设置都认真写了。为了避免因为平台带来的问题在不同的电脑上也试了,各个参数的意义自己问别人和看代码也基本了解了,应该没有问题了。
  • 训练的时间太少?(还没有到极值)学习率太大?(跳过去极值) 前者我有一天打球之前开了训练,练了20000多个step,后者我把学习率改到万分之一训练了四个多小时,什么结果都没有。

后面我确实没招了,整个代码框架还是挺复杂的,也没有时间去细细看,所以我就放弃了,转向Yolo了,值得欣喜的事,Yolo很快就有了不错的结果,除了我傻逼了把系统搞崩了之外。

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏机器学习之旅

python开发:基于SSD下的图像内容识别(二)

感谢 @zcl1122指出的倒数第三节代码中的i错误的被简书转行成大写的I的问题。

31430
来自专栏AI研习社

Github 项目推荐 | Basel Face Model 2017 完全参数化人脸

本软件可以从 Basel Face Model 2017 里生成完全参数化的人脸,论文链接: https://arxiv.org/abs/1712.01619 ...

79670
来自专栏算法+

快速均值模糊算法

前段时间在网上看到一个快速均值模糊算法,性能很不错。 源博客: http://www.lellansin.com/super-fast-blur-%E6%A8%...

37250
来自专栏CreateAMind

openAi HER 算法运行流程学习

12830
来自专栏素质云笔记

SSD+caffe︱Single Shot MultiBox Detector 目标检测+fine-tuning(二)

承接上一篇SSD介绍:SSD+caffe︱Single Shot MultiBox Detector 目标检测(一) 如果自己要训练SSD模型呢,关键...

1.2K100
来自专栏GAN&CV

使用tensorflow 的slim模块fine-tune resnet/densenet/inception网络,解决batchnorm问题

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq_25737169/article/d...

1.2K20
来自专栏阅读笔记

RNN & LSTM

所有的RNN均具有一种重复神经网络模块的链式形式,在标准的RNN中,通常重复模块是一个非常简单的结构,eg:只含有一个tanh层。

18010
来自专栏机器学习算法工程师

分布式TensorFlow入门教程

深度学习在各个领域实现突破的一部分原因是我们使用了更多的数据(大数据)来训练更复杂的模型(深度神经网络),并且可以利用一些高性能并行计算设备如GPU和FPGA来...

39830
来自专栏人工智能LeadAI

YOLO:实时目标检测

一瞥(You Only Look Once, YOLO),是检测Pascal VOC(http://host.robots.ox.ac.uk:8080/pasc...

1.1K70
来自专栏ATYUN订阅号

浣熊检测器实例, 如何用TensorFlow的Object Detector API来训练你的物体检测器

这篇文章是“用Tensorflow和OpenCV构建实时对象识别应用”的后续文章。具体来说,我在自己收集和标记的数据集上训练了我的浣熊检测器。完整的数据集可以在...

62070

扫码关注云+社区

领取腾讯云代金券