我一直在一台普通的机器上训练盗梦空间V3,只有一颗GPU (GeForce GTX980Ti,6 6GB)。最大批处理大小似乎约为40。
我使用了inception_train.py文件中指定的默认学习率设置:initial_learning_rate = 0.1、num_epochs_per_decay = 30和learning_rate_decay_factor = 0.16。经过几周的训练,我能够达到的最佳精度如下(大约500K-1M迭代):
2016-06-06 12:07:52.245005: precision @ 1 = 0.5767 recall @ 5 = 0.8143 [50016 examples]
2016-06-09 22:35:10.118852: precision @ 1 = 0.5957 recall @ 5 = 0.8294 [50016 examples]
2016-06-14 15:30:59.532629: precision @ 1 = 0.6112 recall @ 5 = 0.8396 [50016 examples]
2016-06-20 13:57:14.025797: precision @ 1 = 0.6136 recall @ 5 = 0.8423 [50016 examples]我试着在训练接近尾声时摆弄设置,但在准确性方面看不到任何改进。
我根据这个论坛上的其他一些帖子,用num_epochs_per_decay = 10和learning_rate_decay_factor = 0.001从头开始了一个新的培训课程,但在这里有点摸索。
对于像我这样的小型硬件设置,有什么好的默认设置建议吗?
发布于 2016-12-06 17:50:09
很棒的建议。使用与您的设置类似的设置进行训练是有优先权的。看看这个- http://3dvision.princeton.edu/pvt/GoogLeNet/这些人训练了GoogleNet,但使用的是咖啡因。尽管如此,研究他们的经验将是有用的。
https://stackoverflow.com/questions/38259166
复制相似问题