我试图在我的网络结构中使用ResidualWrapper和HighwayWrapper,但是我得到了形状不匹配错误。 所以我试过的是: import tensorflow as tf
from tensorflow.contrib import rnn
tf.reset_default_graph()
a = tf.placeholder(tf.float32,[2,5,10])
with tf.variable_scope('encoder') as scope:
model = tf.nn.dynamic_rnn(tf.nn.rnn_cell.Res
在尝试传递我的RNN调用时,我调用了tf.nn.rnn_cell,并收到以下错误:
AttributeError: module 'tensorflow.python.ops.nn' has no attribute 'rnn_cell'
这很奇怪,因为我确信我正确地导入了所有内容:
from __future__ import print_function, division
from tensorflow.contrib import rnn
import numpy as np
import tensorflow as tf
import matplotl
我正在尝试在tensorflow中实现一个基于LSTM单元的RNN。我在每一行中都有一个组成特征的单词序列和一个名为labels (可以是1或0)的列作为目标。我在解释dynamic_RNN的输出时遇到了困难。dynamic_RNN返回输出和状态。我已经将我的数据分成256个批次。我对每一行都进行了填充/裁剪,使其长度一致为160。然后我嵌入了它们(使用glove),这样每个单词就变成了一个100维向量。在此之后,我的每个示例都会变成一个160 x 100的矩阵,RNN函数的每个批次都会变成一个张量- (256,160,100)。现在,假设LSTM单元的hidden_dimension设置为3
我正在用TensorFlow构建一个LSTM,我认为我错误地定义了我的输出,因为我得到了以下错误:
InvalidArgumentError (see above for traceback): logits and labels must have the same first dimension, got logits shape [160,14313] and labels shape [10]
[[Node: SparseSoftmaxCrossEntropyWithLogits/SparseSoftmaxCrossEntropyWithLogits = SparseSoft
几年前,当我从头开始编写一个实现(只使用Python + Numpy,而不使用tensorflow)时,我对经典的MLP神经网络有了更好的理解。现在,我也想对递归神经网络做同样的处理。
对于具有密集层的标准MLP神经网络,正向传播可概括如下:
def predict(x0):
x = x0
for i in range(numlayers-1):
y = dot(W[i], x) + B[i] # W[i] is a weight matrix, B[i] the biases
x = activation[i](y)
retu
> WARNING: The TensorFlow contrib module will not be included in TensorFlow 2.0.
For more information, please see:
* https://github.com/tensorflow/community/blob/master/rfcs/20180907-contrib-sunset.md
* https://github.com/tensorflow/addons
If you depend on functionality not listed there, plea
嗨,大家好,我正在尝试用新的seq2seq模块来实现序列序列模型,这个模块正在用TF1.0和1.1进行开发和发布。有dynamic_decode函数,它以rnn_output的形式返回逻辑。然后,利用rnn的输出计算损失。当我天真地运行它时,只需调用tf.contrib.seq2seq.loss.sequence_loss with (rnn_output,加权,logits),它就会崩溃:
InvalidArgumentError (see above for traceback): Incompatible shapes: [1856,1,1024] vs. [9600,1,1024]
我有一组在matlab中实现的训练模型的权重。我想将权重传递给tensorflow。然而,具有500个单元tf.rnn.rnn_cell.LSTMCell具有形状为(1524,2000)的权重矩阵。为什么是1524?为什么是2000年?这与我的权重大小完全不相符。
我的模型有3个隐藏层,每个隐藏层有1000个节点,最后一个隐藏层是时间层(递归)。输入维度为1539。输出维度为1026。时间层具有1x1000的时间权重和1000x1000的层权重以及1x1000的偏差。
import scipy
import numpy as np
import tensorflow as tf
x = tf
当我的神经网络的输出设置为1时出现问题,它在数据数组中给出了一个问题,指责哪个形状更大,如果我使用periods = len(valuesAnalisys) - 1,一切都正常!
周期:
periods = 1
返回:
Imcompatible shapes: [1020,1,1] vs. [1019,1,1]
神经网络:
datecollect = [x[0] for x in dataSet]
servers = [x[1] for x in dataSet]
valuesAnalisys = [float(x[2]) for x in dataSet]
base = np.array(
我用tensorflow和keras一起训练到一个使用google的char-RNN。我将我的模型训练为10个时期,并使用'model.save()‘保存它,如中所示。紧接着,我再次加载它,只是为了检查,我尝试在加载的模型上调用model.fit(),并使用完全相同的训练集得到一个“维度必须相等”的错误。培训数据在tensorflow数据集中,按批组织,如所示。下面是一个最低限度的工作示例:
import numpy as np
import tensorflow as tf
from tensorflow.keras.models import Sequential
from ten