我已经使用GPU在tensorflow中使用CUDNNLSTM训练了一个模型。当我尝试在cpu中使用模型进行推理时,我得到了这个错误:
Invalid argument: No OpKernel was registered to support Op 'CudnnRNN' with these attrs. Registered devices: [CPU], Registered kernels:
<no registered kernels>
[[Node: cudnn_lstm/CudnnRNN = CudnnRNN[T=DT_FLOAT,
我试图通过使用cuDNN内核来训练一个生成LSTM的模型来加速这个过程,但是我的模型似乎超出了标准。我很难理解到底是什么问题。
以下是警告:
WARNING:tensorflow:Layer lstm will not use cuDNN kernel since it doesn't meet the cuDNN kernel criteria. It will use generic GPU kernel as fallback when running on GPU
这是我的生成模型:
def build_generative_model(vocab_size, embed_di
我正试图在通用语音数据集上训练DeepSpeech模型,正如中所述。但是,它给出了以下错误:
I0421 11:34:32.779112 140581195995008 utils.py:157] NumExpr defaulting to 2 threads.
I Could not find best validating checkpoint.
I Could not find most recent checkpoint.
I Initializing all variables.
Traceback (most recent call last):
File "/usr/
所以我最近一直在玩pytorch,我最终得到了一个似乎优化得很差的模型。在训练过程中,gpu的使用率一直在30%左右,根据batch_size的不同,运行一个时期所需的时间可以大大减少(如果batch_size很高)或很长(如果batch_size很小)。
完整的代码位于以下存储库中。
训练循环位于gpu,而在上进行训练的代码的“多汁”部分位于。
我还在这里附加了使用调用我的脚本的输出,用于训练和验证数据集的51个小批量训练(一个完整的纪元几乎需要一整天,数据集是Speech2Text的1.000 )
`bottleneck` is a tool that can be used as an
我试图生成一个神经网络(LSTM)来预测足球比赛的结果(赢、输、平)。特别是,我试图在文件中导出该算法,使其能够预测平局,而不是只有输赢。培训数据集的列与第3页所描述的列完全相同。所有这些列都已被缩放,以便在0到1之间。第9和第10列编码为12和3,从11列到18列为二进制值。我修改了在同一个github存储库中创建的网络,结果如下:
import numpy as np
from sklearn.model_selection import train_test_split
from tensorflow import keras
import pandas as pd
# Build
我正在从源代码编译当前的主版本。如果使用CUDA 7.5和CUDNN 4.0进行编译,则会出现以下编译错误:
ERROR: /home/rob/tensorflow/tensorflow/contrib/rnn/BUILD:45:1: undeclared inclusion(s) in rule '//tensorflow/contrib/rnn:python/ops/_lstm_ops_gpu':
this rule is missing dependency declarations for the following files included by 'ten
我正在研究如何在图层中设置自定义权重。
下面是我使用的代码
batch_size = 64
input_dim = 12
units = 64
output_size = 1 # labels are from 0 to 9
# Build the RNN model
def build_model(allow_cudnn_kernel=True):
lstm_layer = keras.layers.RNN(
keras.layers.LSTMCell(units), input_shape=(None, input_dim))
mo
我正在尝试使用Pytorch.But实现字符LSTM,I‘m the cudnn_status_bad_params errors.This is training loop.我在行输出=模型(Input_seq)时出错。
for epoch in tqdm(range(epochs)):
for i in range(len(seq)//batch_size):
sidx = i*batch_size
eidx = sidx + batch_size
x = seq[sidx:eidx]
x = torch.tensor(x).cuda()
input_se
我对ML框架和python都很陌生。我从获得了keras项目的源代码,我还安装了所有CUDA和Cudnn正确的版本。但是在加载gru模型之后,它会引发一个错误:
ValueError: GRU(reset_after=False)与GRU(reset_after=True).不兼容
有人能帮我吗?谢谢。该函数似乎有一个重载选项。我应该添加一些选项,比如reset_after来启用/禁用它吗?我只是猜。
lstm = load_model('TrafficFlowPrediction/model/lstm.h5')
#error in gru model load
gru = l
我正在为使用Keras生成文本创建一个LSTM模型。由于dataset(大约25部小说,约140万字)无法立即处理(转换输出的内存问题to_Categorical()),我创建了一个自定义生成器函数来读取数据。
# Data generator for fit and evaluate
def generator(batch_size):
start = 0
end = batch_size
while True:
x = sequences[start:end,:-1]
#print(x)
y = sequences[start:e
我正在训练LSTM,并且正在定义参数和回归层。我用下面的代码得到标题中的错误:
lstm_cells = [
tf.contrib.rnn.LSTMCell(num_units=num_nodes[li],
state_is_tuple=True,
initializer= tf.contrib.layers.xavier_initializer()
)
for li in range(n_layers)]
drop