我只是想了解一下TensorFlow的命名行为,我仍然需要一些澄清。我在一个项目中遇到了张量命名的麻烦,因为它们是在一个函数中预定义的,这个函数后来被调用。
因此,我这里有以下示例:
import tensorflow as tf
def foo():
with tf.variable_scope("foo", reuse=True):
a = tf.placeholder(tf.float32,name="a")
b = tf.placeholder(tf.float32,name="b")
return a,b
##
a,b = foo()
print(a)
print(b)我得到了输出:
Tensor("foo/a:0", dtype=float32)
Tensor("foo/b:0", dtype=float32)但是,当我再次调用它时,我得到了输出:
Tensor("foo_1/a:0", dtype=float32)
Tensor("foo_1/b:0", dtype=float32)为什么会这样呢?我将reuse设置为true,所以我希望张量再次出现在相同的variable_scope "foo“中,或者程序抛出一个错误,比如"tensors已定义”。
因此,我尝试了tf.get_variable的一种解决方法:
def foo():
with tf.variable_scope("foo", reuse=True):
a = tf.get_variable("v", [1])
return a
##
a1 = foo()
print(a1)
graph = tf.get_default_graph()
#call tensors by name in tensorflow to avoid confusion with the naming
graph.get_tensor_by_name("foo/v:0")在这里,我总是得到相同的输出:
<tf.Variable 'foo/v:0' shape=(1,) dtype=float32_ref>不幸的是,我不能处理变量,因为你不能为它们定义一个动态形状。您需要占位符来定义可变形状。谁能解释一下为什么程序会继续为占位符创建新的variable_scopes,而不是在我调用tf.get_variable()的时候?
谢谢!
https://stackoverflow.com/questions/50974629
复制相似问题