前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Caffe学习笔记(五):使用pycaffe生成solver.prototxt文件并进行训练

Caffe学习笔记(五):使用pycaffe生成solver.prototxt文件并进行训练

作者头像
Jack_Cui
发布2017-12-28 12:01:19
1.3K0
发布2017-12-28 12:01:19
举报
文章被收录于专栏:Jack-Cui

Python版本: Python2.7 运行平台: Ubuntu14.04

    上几篇笔记记录了如何将图片数据转换成db(leveldb/lmdb)文件,计算图片数据的均值,train.prototxt和test.prototxt文件的编写。本篇笔记主要记录如何生成sovler文件,solver文件是训练的时候,需要用到的prototxt文件,它指明了train.prototxt和test.prototxt或train_test.prototxt。solver就是用来是loss最小化的优化方法。

一、solver.prototxt参数说明

    依然是以cifar10_quick_solver.prototxt为例,内容如下:

代码语言:javascript
复制
# reduce the learning rate after 8 epochs (4000 iters) by a factor of 10

# The train/test net protocol buffer definition
net: "examples/cifar10/cifar10_quick_train_test.prototxt"
# test_iter specifies how many forward passes the test should carry out.
# In the case of MNIST, we have test batch size 100 and 100 test iterations,
# covering the full 10,000 testing images.
test_iter: 100
# Carry out testing every 500 training iterations.
test_interval: 500
# The base learning rate, momentum and the weight decay of the network.
base_lr: 0.001
momentum: 0.9
weight_decay: 0.004
# The learning rate policy
lr_policy: "fixed"
# Display every 100 iterations
display: 100
# The maximum number of iterations
max_iter: 4000
# snapshot intermediate results
snapshot: 4000
snapshot_format: HDF5
snapshot_prefix: "examples/cifar10/cifar10_quick"
# solver mode: CPU or GPU
solver_mode: GPU

    这些参数,都是有根据进行设置的,从上到下依次进行说明:

  • net:指定配置文件,cifar10_quick_solver.prototx文件中指定的prototxt文件为examples/cifar10/cifar10_quick_train_test.prototxt,可以使用train_net和test_net分别指定。
  • test_iter:测试迭代数。例如:有10000个测试样本,batch_size设为32,那么就需要迭代 10000/32=313次才完整地测试完一次,所以设置test_iter为313。
  • test_interval:每训练迭代test_interval次进行一次测试,例如50000个训练样本,batch_size为64,那么需要50000/64=782次才处理完一次全部训练样本,记作1 epoch。所以test_interval设置为782,即处理完一次所有的训练数据后,才去进行测试。
  • base_lr:基础学习率,学习策略使用的参数。
  • momentum:动量。
  • weight_decay:权重衰减。
  • lr_policy:学习策略。可选参数:fixed、step、exp、inv、multistep。

lr_prolicy参数说明:

  • fixed: 保持base_lr不变;
  • step: step: 如果设置为step,则需要设置一个stepsize,返回base_lr * gamma ^ (floor(iter / stepsize)),其中iter表示当前的迭代次数;
  • exp: 返回base_lr * gamma ^ iter,iter为当前的迭代次数;
  • inv: 如何设置为inv,还需要设置一个power,返回base_lr * (1 + gamma * iter) ^ (- power);
  • multistep: 如果设置为multistep,则还需要设置一个stepvalue,这个参数和step相似,step是均匀等间隔变化,而multistep则是根据stepvalue值变化;
  • stepvalue参数说明: poly: 学习率进行多项式误差,返回base_lr (1 - iter/max_iter) ^ (power); sigmoid: 学习率进行sigmod衰减,返回base_lr ( 1/(1 + exp(-gamma * (iter - stepsize))))。
  • display:每迭代display次显示结果。
  • max_iter:最大迭代数,如果想训练100 epoch,则需要设置max_iter为100*test_intervel=78200。
  • snapshot:保存临时模型的迭代数。
  • snapshot_format:临时模型的保存格式。有两种选择:HDF5 和BINARYPROTO ,默认为BINARYPROTO
  • snapshot_prefix:模型前缀,就是训练好生成model的名字。不加前缀为iter_迭代数.caffemodel,加之后为lenet_iter_迭代次数.caffemodel。
  • solver_mode:优化模式。可以使用GPU或者CPU。

二、使用python生成solver.prototxt文件

    以分析的cifar10_quick_solver.prototxt文件为例,使用python程序,生成这个文件。

1.代码如下:

代码语言:javascript
复制
# -*- coding: UTF-8 -*-
import caffe                                                     #导入caffe包

def write_sovler():
    my_project_root = "/home/Jack-Cui/caffe-master/my-caffe-project/"        #my-caffe-project目录
    sovler_string = caffe.proto.caffe_pb2.SolverParameter()                    #sovler存储
    solver_file = my_project_root + 'solver.prototxt'                        #sovler文件保存位置
    sovler_string.train_net = my_project_root + 'train.prototxt'            #train.prototxt位置指定
    sovler_string.test_net.append(my_project_root + 'test.prototxt')         #test.prototxt位置指定
    sovler_string.test_iter.append(100)                                        #测试迭代次数
    sovler_string.test_interval = 500                                        #每训练迭代test_interval次进行一次测试
    sovler_string.base_lr = 0.001                                            #基础学习率   
    sovler_string.momentum = 0.9                                            #动量
    sovler_string.weight_decay = 0.004                                        #权重衰减
    sovler_string.lr_policy = 'fixed'                                        #学习策略           
    sovler_string.display = 100                                                #每迭代display次显示结果
    sovler_string.max_iter = 4000                                            #最大迭代数
    sovler_string.snapshot = 4000                                             #保存临时模型的迭代数
    sovler_string.snapshot_format = 0                                        #临时模型的保存格式,0代表HDF5,1代表BINARYPROTO
    sovler_string.snapshot_prefix = 'examples/cifar10/cifar10_quick'        #模型前缀
    sovler_string.solver_mode = caffe.proto.caffe_pb2.SolverParameter.GPU    #优化模式

    with open(solver_file, 'w') as f:
        f.write(str(sovler_string))   

if __name__ == '__main__':
    write_sovler()

2.运行结果:

三、训练模型

    从第一篇笔记至此,我们已经了解到如何将jpg图片转换成Caffe使用的db(levelbd/lmdb)文件,如何计算数据均值,如何使用python生成solver.prototxt、train.prototxt、test.prototxt文件。接下来,就可以进行训练的最后一步,使用caffe提供的python接口训练生成模型。如果不进行可视化,只想得到一个最终的训练model,可以使用如下代码:

代码语言:javascript
复制
import caffe

my_project_root = "/home/Jack-Cui/caffe-master/my-caffe-project/"        #my-caffe-project目录
solver_file = my_project_root + 'solver.prototxt'                        #sovler文件保存位置
caffe.set_device(0)                                                      #选择GPU-0
caffe.set_mode_gpu()
solver = caffe.SGDSolver(solver_file)
solver.solve()

     现在,如何训练生成模型的简单步骤已经讲完。接下来,以mnist实例,整合所学内容,训练生成model,并使用生成的model进行预测。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2017-04-20 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
GPU 云服务器
GPU 云服务器(Cloud GPU Service,GPU)是提供 GPU 算力的弹性计算服务,具有超强的并行计算能力,作为 IaaS 层的尖兵利器,服务于生成式AI,自动驾驶,深度学习训练、科学计算、图形图像处理、视频编解码等场景。腾讯云随时提供触手可得的算力,有效缓解您的计算压力,提升业务效率与竞争力。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档