我有一个错误 {taskinstance.py:1455} ERROR - Cannot convert a symbolic Tensor (lstm_4/strided_slice:0) to a numpy array. This error may indicate that you're trying to pass a Tensor to a NumPy call, which is not supported 回溯(最近一次调用) 当我使用下面的代码创建LSTM-VAE模型时。 配置: Python: 3.7.9
Tensorflow: 2.4.0
NumPy: 1.1
我正在尝试构建一个LSTM编码器。我正在MNIST数据集上测试它,以便在实际的数据集上使用它之前检查任何错误。我的代码:
import tensorflow as tf
from tensorflow import keras as K
from tensorflow.keras.datasets import mnist
from tensorflow.keras import layers
(x_train, y_train), (x_test, y_test) = mnist.load_data()
encoder_input = K.Input(shape=(x_train.shap
我已经完成了一个简单的多对一的LSTM模式如下。
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense
from tensorflow.keras.layers import LSTM
from tensorflow.keras.layers import Dropout
model=Sequential()
model.add(LSTM(2**LSTM_units,input_length=data.shape[1],input_dim=data.shape[2],re
我想应用这个方法来实现Bi-LSTM。这里讨论了该方法:Bi-LSTM Attention model in Keras 我得到以下错误:'module' object is not callable 它不能在以下行中应用乘法:sent_representation = merge([lstm, attention], mode='mul') from keras.layers import merge
import tensorflow as tf
from tensorflow.keras.layers import Concatenate, Dense,
在尝试为作者共享的训练模型运行解码模式时,我收到以下错误。
python run_summarization.py --mode=decode --data_path=better.bin --vocab_path=finished_files/vocab --log_root=log/directory --exp_name=pretrained_model
INFO:tensorflow:Starting seq2seq_attention in decode mode...
max_size of vocab was specified as 50000; we now have 50
这里有人成功地使用im2txt 1.4.1运行TensorFlow吗?
我正在使用这个模型()
2018-01-04 00:46:59.268582: W tensorflow/core/framework/op_kernel.cc:1192] Not found: Key lstm/basic_lstm_cell/kernel not found in checkpoint
然后我尝试了下面的脚本来转换模型。脚本生成检查点、.meta、.data和.index。
OLD_CHECKPOINT_FILE = "/tmp/my_checkpoint/model.ckpt-3000000&
我正在使用TF2.0中的一些LSTM层。为了训练目的,我使用回调LearningRateScheduler,为了速度目的,我禁用了Tensorflow (disable_eager_execution)的急切模式。但当我同时使用这两种功能时,tensorflow会发出警告:
Operation ... was changed by setting attribute after it was run by a session. This mutation will have no effect, and will trigger an error in the future. Either d
我正在尝试创建一个简单的LSTM示例来预测浮点数序列中的下一个点。为了简单起见,我选择了线性样本数据。我使用的是TensorFlow 2.3.1和NumPy 1.18.5。
以下是输入数据的设置,即长度为5的基本滚动水平:
# Sample data -- linear function
linear_data=0.05+0.05*np.array(range(20))
# Size of window in rolling horizon
window = 5
# Tensorflow expects 3D: i,j,k = samples, window/sequence data,
我有一个LSTM模型,我想训练多个gpus。我对代码进行了转换,在nvidia-smi中,我可以看到它正在使用所有gpu的所有内存,每个gpu都在使用大约40%的内存,但每批培训的估计时间几乎与1个gpu相同。
有人能引导我,告诉我如何在多个gpus上进行适当的训练吗?
我的代码:
import tensorflow as tf
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense
from tensorflow.keras.layers import LSTM
fro
我开始学习如何用keras来实现神经网络。然而,我刚才偶然发现了这个错误。我不知道我在这里做错了什么。我在youtube上的Valerio:教程旁工作。
我的代码:
import tensorflow
from tensorflow.keras import Model
from tensorflow.keras.layers import Input, Dropout, LSTM
class GNN:
"""
GNN is a graph neural network.
"""
def __init__(self,
我尝试使用内置的TensorFlow函数作为损失函数来编译我的模型。这是因为从numpy数组到张量的变化,还是与函数有关。我的代码:
import numpy as np
from pandas import read_csv
from keras.utils import to_categorical
import matplotlib.pyplot as plt
from keras.models import Sequential
from keras.layers import Dense, Dropout, Embedding, Flatten, LSTM, TimeDistribu
如何了解此机型的VRAM使用率?(不是关于正在训练的数据,而是将模型及其权重加载到VRAM中 from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense,Dropout,LSTM,BatchNormalization
import tensorflow as tf
model = Sequential()
model.add(LSTM(700, input_shape=(10000,5000,20), return_sequences=True))
model.add(D
我是TensorFlow和Tensorboard的新手,当我运行下面的代码时,模型训练和返回其输出都很好,但是Tensorboard在浏览器中显示一个空白页面。 import pandas as pd
import os
import tensorflow as tf
from time import time
from tensorflow.python.keras.layers.core import Dense
from tensorflow.python.keras.models import Sequential
from tensorflow.python.keras.layer
当使用下面的函数模式创建LSTM层时,会引发错误
ValueError: Input 0 is incompatible with layer lstm_1: expected ndim=3, found ndim=2
代码以复制问题
import keras
from keras.layers import Input, LSTM, Dense
from keras.models import Model
import numpy as np
def build_lstm(lstm_input, hidden_dim=256):
out = LSTM(hidden_dim, i
我正在构建一个LSTM模型,并使用tensorflow构建自定义训练循环,这样我就可以训练具有不同序列长度的LSTM网络。 训练循环正在运行,但与keras.fitgenerator相比真的很慢。所以我参考了这些链接:https://github.com/tensorflow/tensorflow/issues/30596,Speeding up Tensorflow 2.0 Gradient Tape。 因此,对于我的训练功能,我使用了@tf.function装饰器,但在计算损失时,我面临着问题。下面是代码片段 import numpy as np
import tensorflow as
我正在处理一个多类分类问题,为了好玩,我想尝试不同的模型。我发现了一个使用LSTM进行分类的blog,并试图调整我的模型以使其正常工作。 这是我的模型: from tensorflow import keras
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, Dropout, Activation, Bidirectional, LSTM
from tensorflow.keras.optimizers import SGD, Adam
我正在尝试用tensor2tensor创建一个简单的基于LSTM的RNN。 到目前为止,训练似乎是有效的,但我无法恢复模型。尝试这样做将抛出一个NotFoundError,指出来自LSTM的偏置节点: NotFoundError: ..
Key bidirectional/backward_lstm/bias not found in checkpoint 我不知道为什么会这样。 这实际上是另一个问题的变通方法,我可以使用来自tensor2tensor (https://github.com/tensorflow/tensor2tensor/issues/1616)的LSTM来解决类似的
keras tensorflow-cpu后端和tensorflow-gpu后端(代码)有区别吗?如果我想将tensorflow从cpu更改为gpu,我需要添加哪些代码或设置哪些环境变量?
从我知道我可以使用tf.devices -类似于下面的代码。但是,如果我想要整个代码,而不仅仅是一部分在GPU上运行呢?
with tf.device('/gpu:0'):
x = tf.placeholder(tf.float32, shape=(None, 20, 64))
y = LSTM(32)(x) # all ops in the LSTM layer will