以下是针对我面临的问题的MWE: import tensorflow as tf
x = tf.Variable(0.0) z = x
# None
# 1.0 显然,在这种特殊情况下,这很容易修复,但在我面临的实际用例中,与递归神经网络有关,我需要使用tf.Variable从连接其他张量形成张量,例
当我用下面的方法计算x^2的梯度时。x = tf.convert_to_tensor(np.linspace(-5,5,11))with tf.GradientTape() as g:x=tf.Variable(-5.0)with tf.GradientTape(persistent=True) as g:
g.watch(x有没有一种方法可以分离计算并使用for循环,而不是像
我试图在下面实现一些东西,但是它没有起作用,因为tf.GradientTape()需要跟踪需要区分的等式。i in range(n):gradient_by_order(function,x,10)
是否有一种使用递归或循环或任何其他方法创建工作函数的方法?编辑:我知道你可以通过嵌套with tf.GradientTape() as tape得到第n阶导数,就像下面的Susmi
假设我将一个向量乘以一个标量,例如: a = tf.Variable(3.) c = a*b
grad = tape.gradient(c, a) 我得到的梯度是一个标量, <tf.Tensor: shape=(), dtype=float32, numpy=2.0> 而我们期望的向量是: <tf.Variable 'Variable:0' shape=(3