函数()来定义模型
with tf.variable_scope('RNNLM') as scope:
self.initial_state = tf.zeros(shape = (self.config.batch_size, self.config.hidden_size) )
H = tf.get_variable('H',(self.config.hidden_size, self.config.hidden_size),tf.float32,init)
I = tf.get_variable('I',(self.conf
我正在使用中的flowers数据集示例,并尝试重用模型的共享权重
def my_cnn(images, num_classes, is_training): # is_training is not used...
with slim.arg_scope([slim.max_pool2d], kernel_size=[3, 3], stride=2):
net = slim.conv2d(images, 64, [5, 5])
net = slim.max_pool2d(net)
net = slim.conv2d(net, 64, [
我的问题与这个有关
我可以说出行动的名字。但实际上他们的名字不同。例如:
In [11]: with tf.variable_scope('test_scope') as scope:
...: a = tf.get_variable('a',[1])
...: b = tf.maximum(1,2, name='b')
...: print a.name
...: print b.name
...:
...:
...:
test
我首先对网络N进行了培训,然后用保护程序将其保存到检查点Checkpoint_N中。在N中定义了一些变量范围。
现在,我想使用这个经过培训的网络N构建一个暹罗网络,如下所示:
with tf.variable_scope('siameseN',reuse=False) as scope:
networkN = N()
embedding_1 = networkN.buildN()
# this defines the network graph and all the variables.
tf.train.Saver().restore(session_va
我正在尝试使用tensorflow训练一个具有多个塔的网络。我已经为所有的塔设置了reuse = True。但在中,重用变量是在创建第一个塔之后设置的:
with tf.variable_scope(tf.get_variable_scope()):
for i in xrange(FLAGS.num_gpus):
with tf.device('/gpu:%d' % i):
with tf.name_scope('%s_%d' % (cifar10.TOWER_NAME, i)) as scope:
# Dequeues
我有以下设置,其中每个输入由两个轨迹组成。我希望左边的图和右边的图具有相同的权重。
我试图遵循这里描述的共享变量的方法,,但是它不起作用。创建了两个不同的图。我做错了什么?
def build_t_model(trajectories):
"""
Function to build a subgraph
"""
with tf.name_scope('h1_t'):
weights = tf.Variable(tf.truncated_normal([150, h1_t_u
我尝试使用TensorFlow来计算矩阵中每一列与所有其他列(不包括自身)之间的最小欧几里德距离:
with graph.as_default():
...
def get_diversity(matrix):
num_rows = matrix.get_shape()[0].value
num_cols = matrix.get_shape()[1].value
identity = tf.ones([1, num_cols], dtype=tf.float32)
diversity = 0
for i in r
在训练过程中,我试图在每一个时代之后进行验证。
我创建的图表如下:
import tensorflow as tf
from networks import densenet
from networks.densenet_utils import dense_arg_scope
with tf.variable_scope('scope') as scope:
with slim.arg_scope(dense_arg_scope()):
logits_train, _ = densenet(images, blocks=networks[
目前,我在tensorflow中有一系列链接在一起的RNN的代码。我不使用MultiRNN,因为我以后要对每个层的输出做一些事情。
for r in range(RNNS):
with tf.variable_scope('recurent_%d' % r) as scope:
state = [tf.zeros((BATCH_SIZE, sz)) for sz in rnn_func.state_size]
time_outputs = [None] * TIME_STEPS
for t in range(TIME_
在重用变量时,我有一个关于子作用域的问题。这
import tensorflow as tf
def make_bar():
with tf.variable_scope('bar'):
tf.get_variable('baz', ())
with tf.variable_scope('foo') as scope:
make_bar()
scope.reuse_variables()
make_bar()
工作非常好,只创建了一个变量foo/bar/baz。
但是,如果我将make_bar更改为
def make
我的问题与非常相似。但我想我没有得到答案。
我把我的全部文件都发到上了。但我相信下面的代码真的很重要。
我收到以下错误消息:
ValueError: Variable RNNLM/RNNLM/embedding/Adam_2/ does not exist, or was not created with tf.get_variable(). Did you mean to set reuse=None in VarScope?
此代码的最后一行是发生此错误的地方:
def test_RNNLM():
config = Config()
gen_config = deepcop
这里是tensorflow RNN实现的核心(Mb)函数
def _linear(args, output_size, bias, bias_start=0.0, scope=None):
"""Linear map: sum_i(args[i] * W[i]), where W[i] is a variable.
Args:
args: a 2D Tensor or a list of 2D, batch x n, Tensors.
output_size: int, second dimension of W[i].
bias: b
在最近升级了我的TensorFlow版本之后,我遇到了无法解决的错误:
Traceback (most recent call last):
File "cross_train.py", line 177, in <module>
train_network(use_gpu=True)
File "cross_train.py", line 46, in train_network
with tf.control_dependencies([s_opt.apply_gradients(s_grads), s_increment
我试图在tensorflow (1.4)中结合使用tf.contrib.rnn.ConvLSTMCell应用程序接口和tf.nn.dynamic_rnn应用程序接口来构建一个seq2seq模型,但是我得到了一个关于输入维度的错误。
我的代码是:
# features is an image sequence with shape [600, 400, 10],
# so features is a tensor with shape [batch_size, 600, 400, 10]
features = tf.transpose(features, [0,3,1,2])
feature
我正面临着tensorFlow的麻烦。下面的代码没问题。
来自未来导入部门,print_function,absolute_import
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
import tensorflow.contrib.slim as slim
from tensorflow.contrib.layers.python.layers import initializers
from tensorflow.python.ops import init_ops
config
我正在尝试使用暹罗网络来确定两个输入是否相同。以下是暹罗网络的简要概述:
siamese网络是由两个具有约束权值的完全相同的神经网络组成的网络(两个网络的权重相同)。给定两个输入X_1和X_2,X_1被馈送到第一个网络,X_2被送至第二个网络。然后,将两个网络的输出组合在一起,并给出一个问题的答案:这两个输入是相似的还是不同的?
我已经使用tensorflow创建了下面的网络,但是我遇到了错误。
graph = tf.Graph()
# Add nodes to the graph
with graph.as_default():
with tf.variable_scope
有人能对我的多维lstm实现提出改进建议吗?
它非常慢,并且使用了大量内存。
class MultiDimentionalLSTMCell(tf.nn.rnn_cell.RNNCell):
"""
Adapted from TF's BasicLSTMCell to use Layer Normalization.
Note that state_is_tuple is always True.
"""
def __init__(self, num_units, forget_bias=1.0, activation=tf.nn.tan
臭名昭著的:
*InvalidArgumentError (see above for traceback): You must feed a value for placeholder tensor 'Placeholder_1' with dtype float and shape [100,8]
[[Node: Placeholder_1 = Placeholder[dtype=DT_FLOAT, shape=[100,8], _device="/job:localhost/replica:0/task:0/device:GPU:0"](
我一直在尝试使用deepfix ()进行一些实验,这是一个用于纠正常见编程错误的seq2seq模型。我对代码进行了修改,使其与TF-1.12兼容,因为原始代码包含TF-1.12版本不支持的tensorflow.contrib.seq2seq函数(仅在TF-1.0.x中)。
主要变化是在seq2seq_model中定义的neural_net/train.py。下面是修改后的代码。我是tensorflow RNN的新手,用在线代码的帮助对解码器部分进行了编码。
class seq2seq_model():
PAD = 0
EOS = 1
def __init__(self, vocab_siz
当我运行以下行时:
_, loss_value = sess.run([train_op, loss])
Python停止工作,但当我运行另一个示例(下面)时,Python和Tensorflow不会引发任何错误。
我尝试过将generation更改为1,将batch_size更改为1,但这也不起作用。
下面是我的(Python)代码:
# More Advanced CNN Model: CIFAR-10
#---------------------------------------
#
# In this example, we will download the CIFAR-10 ima
我已经修改了现有的cifar10示例,以作为一个暹罗网络。但我在训练中遇到了一些困难。
作出的改动:
占位符而不是队列
自定义损失函数
下面是我修改的cifar10_train.py:
from __future__ import absolute_import
from __future__ import division
from __future__ import print_function
from datetime import datetime
import os.path
import time
import input_data
import numpy a
我正在尝试使用tf.layers应用程序接口实现一个uNet。任务是图像分割。下面,我将提供(按顺序):错误消息、我的网络定义、我的训练代码和我的验证代码。
几天来,我一直在努力解决这个问题,但就是不知道如何继续下去。如果有人能帮助我,我将万分感激!
为了深入了解问题的核心,当我恢复我的模型时,我得到了一条错误消息:
FailedPreconditionError: Attempting to use uninitialized value prediction/Level1Encoding/conv1/conv2d/kernel
[[Node: prediction/Leve