在我的代码中:(在tf1.0上工作得很好)
from tensorflow.contrib.rnn.python.ops import core_rnn
from tensorflow.contrib.rnn.python.ops import core_rnn_cell
from tensorflow.contrib.rnn.python.ops import core_rnn_cell_impl
用tf1.2报告错误:从tensorflow.contrib.rnn.python.ops导入core_rnn ImportError:无法导入名称“core_rnn”
~/anaconda3/lib/python3.6/site-packages/tflearn/layers/recurrent.py in <module>()
12 # Fix for TF 1.1.0 and under
13 from tensorflow.contrib.rnn.python.ops.core_rnn import static_rnn as _rnn, static_bidirectional_rnn as _brnn
---> 14 from tensorflow.python.ops.rnn impo
我正在使用遗留的序列到序列框架在TensorFlow 1.0.1中构建一个编解码模型.当我在编码器和解码器中有一层LSTM时,一切都会正常工作。但是,当我尝试使用封装在MultiRNNCell中的>1层LSTM时,在调用tf.contrib.legacy_seq2seq.rnn_decoder时会出现一个错误。
这篇文章的结尾是一个完整的错误,但简而言之,它是由一行引起的
(c_prev, m_prev) = state
在TensorFlow中抛出TypeError: 'Tensor' object is not iterable.。我对此感到困惑,因为我要传递给rnn
我在循环神经网络上关注。
这是导入:
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
from tensorflow.python.ops import rnn
from tensorflow.contrib.rnn import core_rnn_cell
这是输入处理的代码:
x = tf.transpose(x, [1,0,2])
x = tf.reshape(x, [-1, chunk_size])
x = tf.split(x, n_chunks, 0)
lstm_
我正在使用TensorFlow版本0.9实现一个双向标记GRU网络(向前1层,向后1层)。在初始化模型时,TensorFlow初始化所有变量,创建GRU单元格,并正确应用所有常规转换,直到运行tf.nn.bidirectional_rnn函数时为止,在该函数中,它抛出与形状不正确的张量合并操作相关的ValueError。代码如下:
# Create the cells
with tf.variable_scope('forward'):
self.char_gru_cell_fw = tf.nn.rnn_cell.GRUCell(char_hidden_size)
wi
代码:
import tensorflow as tf
from tensorflow.python.ops import rnn_cell
cell = rnn_cell.LSTMCell(64, state_is_tuple=True)
multi_layer_cell = tf.nn.rnn_cell.MultiRNNCell([cell for i in range(2)])
x = tf.placeholder("float", [None, 10, 1])
output, state = tf.nn.dynamic_rnn(multi_layer_cell, x,
我想训练一个神经网络,它逐字生成文本。经过一些研究,我决定使用LSTM网络来完成这项任务。
我的输入结构如下:我有一个充满文本的文件(大约90,000,000字符),我将其分割成50个字符的重叠序列。请考虑这句话:
The quick brown fox jumps over the lazy dog
我把文本分成几个序列:
The quick brown
he quick brown_
e quick brown f
_quick brown fo
quick brown fox
我加了下划线,空格不会显示在这些.
这将是我输入数据的时间步骤。输出将是在每个序列之后的下一个字符,因此对于上面
我刚刚开始学习ML和Tensorflow。(我想)在我的ubuntu系统上成功安装了tensorflow之后。我想用tensorflow为手写的didgits实现一个CNN。如果已经在stackoverflow中通读了几个问题,并愚弄了大约2天,没有任何解决方案。
import tensorflow as tf
import matplotlib.pyplot as plt
import struct
import numpy as np
from mpl_toolkits.mplot3d import Axes3D
from tensorfl
当我恢复我训练过的模型时,我得到了下面的错误。是什么导致了这种情况的发生,以及如何找出这些错误?非常感谢!
2017-08-10 09:50:09.228153: W tensorflow/core/framework/op_kernel.cc:1158] Not found: Key test/Q_forward/RNN/rnn/gru_cell/candidate/bias not found in checkpoint
2017-08-10 09:50:09.228153: W tensorflow/core/framework/op_kernel.cc:1158] Not f
我使用tensorflow建立了一个seq2seq模型,并遇到了一个问题:当我在tf.contrib.seq2seq.dynamic_decode中使用MultiRNNCell时,程序会抛出一个错误。
问题就发生在这里:
defw_rnn=tf.nn.rnn_cell.MultiRNNCell([
tf.nn.rnn_cell.LSTMCell(num_units=self.FLAGS.rnn_units,
initializer=tf.orthogonal_initializer)
for _ in range(self
我正在实现简单的RNN。在它中,我希望返回list中每个timestep的输出,稍后我可以将其提供给优化器。我已经在没有@tf.function的情况下构建了工作的rnn。但是在添加@tf.function之后,它会给出问题 def basic_rnn_cell(self,x,s):#Note :These function are defined in class
s=self.U*x+self.W*s+self.b #U,W,b and all are tf.Variable
y=self.V*s+self.c
return y,s
@tf.function
d
我正在尝试理解在tensorflow中在seq2seq中定义的seq2seq.py模型。我使用从tensorflow附带的translate.py示例复制的代码。我一直在犯同样的错误,我真的不明白它是从哪里来的。
再现错误的最小代码示例:
import tensorflow as tf
from tensorflow.models.rnn import rnn_cell
from tensorflow.models.rnn import seq2seq
encoder_inputs = []
decoder_inputs = []
for i in xrange(350):
en
以下代码(取自- )
import tensorflow as tf
import numpy as np
tf.reset_default_graph()
# Create input data
X = np.random.randn(2, 10, 8)
# The second example is of length 6
X[1,6:] = 0
X_lengths = [10, 6]
cell = tf.contrib.rnn.LSTMCell(num_units=64, state_is_tuple=True)
outputs, states = tf.nn.bidire