有人知道如何从解算器原型中改变CAFFE中特定层的学习速率lr_mult
吗?我知道有base_lr
,但是我想以特定层的速率为目标,通过求解器而不是网络原型来实现它。
谢谢!
发布于 2015-11-30 10:51:47
要求学习的每一层(如抽搐、完全连接等)具有特定的lr_mult
参数,该参数可以针对该层进行专门控制。lr_mult
是“这个参数的全球学习率的乘数”。
只需在lr_mult
中为您的层定义或更改train_val.prototxt
。
这对于微调非常有用,在这里,您可能希望只为新层提高学习速度。
有关更多信息,请查看caffe 微调教程。(注意:它有点过时,这里使用的是废弃的术语blobs_lr
,而不是lr_mult
)
编辑:据我所知,不可能从solver.prototxt
中定义特定于层的学习速率。因此,假设solver.prototxt
限制不严格,我建议采用不同的方法来实现相同的结果。
https://stackoverflow.com/questions/33983528
复制相似问题