有人知道如何更新前向传播中使用的权重的子集(即只更新一些索引)吗?
我的猜测是,在应用compute_gradients之后,我可能可以这样做,如下所示:
optimizer = tf.train.GradientDescentOptimizer(learning_rate=learning_rate)
grads_vars = optimizer.compute_gradients(loss, var_list=[weights, bias_h, bias_v])然后,...and对grads_vars中的元组列表执行一些操作。
发布于 2016-01-22 09:41:58
您可以使用gather和scatter_update的组合。下面是一个将位置0和2的值加倍的示例
indices = tf.constant([0,2])
data = tf.Variable([1,2,3])
data_subset = tf.gather(data, indices)
updated_data_subset = 2*data_subset
sparse_update = tf.scatter_update(data, indices, updated_data_subset)
init_op = tf.initialize_all_variables()
sess = tf.Session()
sess.run([init_op])
print "Values before:", sess.run([data])
sess.run([sparse_update])
print "Values after:", sess.run([data])您应该会看到
Values before: [array([1, 2, 3], dtype=int32)]
Values after: [array([2, 2, 6], dtype=int32)]发布于 2016-04-07 18:00:22
最简单的方法是使用npvar = sess.run(tfvar)将tf.Variable拉入python (作为一个numpy数组),然后对其执行一些操作,如npvar[1, 2] = -10。然后,您可以使用sess.run(tfvar.assign(npvar))将修改后的数据上传回tensorflow。
显然,这是非常慢的,对训练没有什么用处,但它确实有效。
发布于 2021-07-24 17:11:15
# in TF2.0 you can solve with "tensor_scatter_nd_update"
# for example:
tensor = [0, 0, 0, 0, 0, 0, 0, 0] # tf.rank(tensor) == 1
indices = [[1], [3], [4], [7]] # num_updates == 4, index_depth == 1
updates = [9, 10, 11, 12] # num_updates == 4
print(tf.tensor_scatter_nd_update(tensor, indices, updates))
# tf.Tensor([ 0 9 0 10 11 0 0 12], shape=(8,), dtype=int32)https://stackoverflow.com/questions/34935464
复制相似问题