腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
GRU
模型不学习
python
、
deep-learning
、
nlp
、
pytorch
、
recurrent-neural-network
我正在尝试在文本数据上拟合
GRU
模型,以预测26个标签中的一个。问题是模型并不是真正的学习(准确率在4%左右,这是随机的机会)。因为我知道这个问题是“可学习的”,所以我怀疑我的
代码
中有一个bug,但我不知道它是什么。 我的数据由每个标签(标记化和单词编码) 100K个句子组成(每个句子映射到26个标签中的一个)。
GRU
, self).= nn.
GRU
(embedding_dim, self.hidden_size, self.num_layers, batch_first=self.有没有人能发现
代码
中的
浏览 20
提问于2021-08-27
得票数 0
1
回答
是否可以创建自定义的Tensorflow
GRU
/LSTM单元?
tensorflow
我为Torch7
GRU
单元成功地完成了这一任务,并且成功地解决了特定的序列建模问题。我怀疑在Tensorflow中实现这一点并不简单,但也许我错了。
浏览 0
提问于2019-02-04
得票数 3
回答已采纳
1
回答
查找
Pytorch
GRU
功能的TensorFlow等效项
tensorflow
、
deep-learning
、
pytorch
、
recurrent-neural-network
、
gated-recurrent-unit
我对如何在TensorFlow中重构以下
Pytorch
代码
感到困惑。它同时使用输入大小x和隐藏大小h来创建
GRU
层 import torchtf.keras.layers.
GRU
(64, return_state=True) 然而,我意识到它并没有真正考虑到h或隐藏的大小
浏览 10
提问于2020-10-17
得票数 4
1
回答
从
PyTorch
到TensorFlow的
GRU
层转换
tensorflow
、
deep-learning
、
pytorch
、
recurrent-neural-network
、
gated-recurrent-unit
我正在尝试将以下
GRU
层从
PyTorch
(1.9.1)转换为TensorFlow(2.6.0): #
GRU
layermodel.add(Bidirectional(
GRU
(32, return_sequences=True, dropout=0.25, time_major=False))) model.add(Bidirectional(<e
浏览 106
提问于2021-10-21
得票数 0
1
回答
如何在放火枪中修饰rnn细胞?
neural-network
、
pytorch
、
recurrent-neural-network
、
natural-language-processing
如果我想改变RNN单元格(例如
GRU
单元格)中的计算规则,我应该做什么?谢谢~
浏览 0
提问于2019-02-27
得票数 1
回答已采纳
1
回答
如何在
pytorch
上实现堆叠的rnn (层数> 1)?
deep-learning
、
pytorch
、
recurrent-neural-network
pytorch
中的
GRU
层接受一个名为num_layers的参数,您可以在其中堆叠RNN。然而,还不清楚后续的RNN如何确切地使用前一层的输出。递归层数。例如,设置num_layers=2将意味着将两个
GRU
堆叠在一起以形成堆叠的
GRU
,第二个
GRU
接收第一个
GRU
的输出并计算最终结果。这是否意味着
GRU
第一层的最后一个单元的输出将作为输入输入到下一层?或者这是否意味着每个单元的输出(在每个时间步)作为输入输入到下一层的相同时间步的单元?
浏览 6
提问于2021-09-23
得票数 2
1
回答
pytorch
中的torch.nn.
gru
函数的输入是什么?
pytorch
、
recurrent-neural-network
、
gated-recurrent-unit
我正在使用
gru
函数来实现RNN。这个RNN (
GRU
)在一些CNN层之后使用。有人能告诉我这里
GRU
函数的输入是什么吗?特别是,隐藏的大小是固定的吗?self.
gru
= torch.nn.
GRU
( hidden_size=128,num_layers=1, bidirectional=True) 根据我的理解,输入大小将是特
浏览 96
提问于2019-11-28
得票数 2
回答已采纳
1
回答
PyTorch
:用GPU训练比用CPU训练同样的东西错误更严重。
python
、
neural-network
、
gpu
、
pytorch
、
cudnn
我有一个关于时间序列的下一步预测模型,它只是一个
GRU
,上面有一个完全连接的层。当我用CPU训练50次后,损失为0.10,而用GPU训练时,50次后损失为0.15。我有:
PyTorch
0.3.0CUDNN_MINOR %0编辑: 我还使用
PyTorch
的重量归一化torch.nn.utils.weight_norm在
GRU
和完全连接的层上。
浏览 1
提问于2018-01-25
得票数 6
回答已采纳
1
回答
TensorFlow:将GRUCell权重从compat.v1转换为tensorflow 2
python
、
tensorflow
、
machine-learning
、
keras
、
deep-learning
我正在尝试将tensorflow 1中保存的模型转换为tensorflow 2,我正在将
代码
迁移到tensorflow 2,作为高。GRUCell有四个权重: 形状
gru
_cell/kernel
浏览 7
提问于2020-11-16
得票数 4
回答已采纳
1
回答
Pytorch
1.6中
GRU
的retain_graph问题
python-3.x
、
machine-learning
、
deep-learning
、
pytorch
、
torch
以下是重现此问题的MWE (在
PyTorch
1.6上)。) return self.brnn(x)
gru
2 =
GRU
2() loss_
gru
1.backward(retain_graph=True)
gru
1_out
浏览 45
提问于2020-10-14
得票数 3
回答已采纳
1
回答
GRU
如何输出以下值?
python
、
machine-learning
、
keras
、
deep-learning
当我运行以下
代码
时 from tensorflow import keras x = np.ones((1,2,1))model.add(keras.layers.
GRU
( units = 1, activation='tanh', recurrent_activation='sigmoid',
浏览 28
提问于2021-02-28
得票数 0
回答已采纳
1
回答
在火炬中截断时间的反向传播(BPTT)
pytorch
、
backpropagation
、
truncated
在
pytorch
中,我训练RNN/
GRU
/LSTM网络,方法是启动反向传播(通过时间):当序列很长时,我希望通过时间进行截断的反向传播,而不是使用整个序列的时间进行正常的反向传播但是,我在
Pytorch
中找不到任何参数或函数来设置截断的BPTT。我错过了吗?我应该自己在毕道尔编码吗?
浏览 3
提问于2018-12-24
得票数 6
1
回答
用于可变尺寸输入的小型批量培训
python
、
neural-network
、
deep-learning
、
pytorch
、
autograd
我是
PyTorch
和RNN的新手,所以我很困惑如何为我拥有的数据实现小型批量培训。有更多的这些数据,但我想保持简单,所以我只能理解如何实现小批量培训部分。我正在进行多类分类,基于LSTM/
GRU
在可变长度输入上训练的最终隐藏状态。我设法使它与批处理大小1(基本上是SGD)工作,但我正在努力实现小型批。DataLoader(inputs, batch_size=batch_size, shuffle=True) #do stuff using LSTM and/or
GRU
浏览 3
提问于2018-02-14
得票数 7
回答已采纳
1
回答
文件"train.py",第35行,clip_gradient模块= p.grad.data.norm()
python
、
nlp
、
deep-learning
、
pytorch
、
rnn
我不确定为什么会出现这个错误:Initialized
GRU
modelNamespace(aggregation='mean', attention_widthmodel_type='RNN', opt='Adam', pretra
浏览 3
提问于2018-03-09
得票数 0
2
回答
pytorch
:
GRU
无法就地更新hidden_state
python
、
pytorch
我在使用
pytorch
实现
GRU
网络时遇到了一个问题: 我的
代码
如下: import torch def __init__(self, device): self.h = torch.randn((1,1,5), device=device, dtype=torch.float) self.
GRU</em
浏览 129
提问于2021-04-06
得票数 0
1
回答
如何在
PyTorch
中向顺序层添加LSTM、
GRU
或其他递归层?
pytorch
torch.nn.Conv1d(196, 196, kernel_size=15, stride=4),)self.rec_layer = nn.Sequential( torch.nn.Linear对于这个例子
浏览 1
提问于2018-06-12
得票数 2
1
回答
用于向量到字符序列翻译的LSTM方法
machine-learning
、
neural-network
、
deep-learning
、
lstm
、
recurrent-neural-network
我想要建立一个序列到序列的模型,它需要一个2048年长的1s和0的向量(例如。1,0,1,0,0,0,1,0,0,1,...,1 )作为输入,并将其转换为已知的输出(可变长度) 1-20个长字符(例如。GBNMIRN、ILCEQZG或FPSRABBRF)。我看过一些github存储库,比如和。我正在使用python中的keras库。
浏览 3
提问于2017-06-19
得票数 3
回答已采纳
1
回答
在浏览器中完全运行经过训练的
PyTorch
LSTM/
GRU
模型的最佳方法
javascript
、
pytorch
、
tensorflow.js
、
onnx
我正在考虑在浏览器(没有后端)中完全运行一个经过训练的
PyTorch
模型(包含LSTM/
GRU
层),作为交互式博客文章的一部分。我研究过ONNX.js,它工作得很好,但不适用于包含
GRU
层的模型。
浏览 19
提问于2020-02-21
得票数 4
1
回答
对于RNN/LSTM的序列数据,通常如何执行批处理
machine-learning
、
neural-network
、
pytorch
、
lstm
这个Udacity course notebook批处理数据的方式对我来说并不直观。 对于较长的数据序列,它们首先截断数据,以便可以用batch_size均匀划分数据。接下来,他们将数据.reshape()为(batch_size, -1)。然后,他们在这些批次的子序列上创建一个滑动窗口。当滑动窗口超出边界时,他们会在末尾添加假数据(通过回绕)。 这个提供的图表可能比我更好地解释: ? 我只是想知道这种做法是正常的,还是有不同的方法。这似乎很奇怪,批次是不连续的子序列。这不会使解释单个批处理的输出变得困难吗? 有没有更好的方法?视频中的这位女士直截了当地说了一些感人的话:“我不知道为
浏览 21
提问于2020-07-17
得票数 0
1
回答
如何在
pytorch
LSTM中自定义多个隐藏层单元的数量?
lstm
、
pytorch
、
recurrent-neural-network
在
pytorch
LSTM、RNN或
GRU
模型中,有一个名为"“的参数,它控制LSTM中隐藏层的数量。这是理解
pytorch
LSTM框架的有用链接。如果有人能回答这个问题,我将不胜感激。
浏览 6
提问于2019-01-07
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
PyTorch 并行训练 DistributedDataParallel完整代码示例
使用PyTorch进行知识蒸馏的代码示例
Pytorch框架下CNN介绍及代码实现
使用PyTorch手写代码从头构建完整的LSTM
基础 GRU神经网络
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券