在训练深度神经网络的时候,我们经常会碰到梯度消失
和梯度爆炸
问题,scientists提出了很多方法来解决这些问题,本篇就介绍一下如何在tensorflow中使用clip来address这些问题
train_op = tf.train.GradientDescentOptimizer(learning_rate=0.1).minimize(loss)
在调用minimize
方法的时候,底层实际干了两件事:
trainable variables
梯度variables
随后, 在我们 sess.run(train_op)
的时候, 会对 variables
进行更新
那我们如果想处理一下计算完的 gradients
,那该怎么办呢?
官方给出了以下步骤
variables
这样,我们以后在train
的时候就会使用 processed gradient去更新 variable
框架:
# Create an optimizer.optimizer必须和variable在一个设备上声明
opt = GradientDescentOptimizer(learning_rate=0.1)
# Compute the gradients for a list of variables.
grads_and_vars = opt.compute_gradients(loss, <list of variables>)
# grads_and_vars is a list of tuples (gradient, variable). Do whatever you
# need to the 'gradient' part, for example cap them, etc.
capped_grads_and_vars = [(MyCapper(gv[0]), gv[1]) for gv in grads_and_vars]
# Ask the optimizer to apply the capped gradients.
opt.apply_gradients(capped_grads_and_vars)
例子:
#return a list of trainable variable in you model
params = tf.trainable_variables()
#create an optimizer
opt = tf.train.GradientDescentOptimizer(self.learning_rate)
#compute gradients for params
gradients = tf.gradients(loss, params)
#process gradients
clipped_gradients, norm = tf.clip_by_global_norm(gradients,max_gradient_norm)
train_op = opt.apply_gradients(zip(clipped_gradients, params)))
这时, sess.run(train_op)
就可以进行训练了