腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(2422)
视频
沙龙
1
回答
如何
获得
pytorch
中
双向
2层
GRU
的
最终
隐藏
态
、
、
、
我正在努力理解
如何
获得
隐藏
层并将它们连接起来。embedding layer self.
gru
= nn.
GRU
(embedding_dim, num_layers=n_layers据我所知,我这样做是行不通
的
浏览 150
提问于2020-04-03
得票数 3
1
回答
TensorFlow 2
中
层叠
双向
神经网络
的
困惑
、
、
、
我正在学习
如何
构建一个基于seq2seq
的
模型,并试图通过为编码器和解码器堆叠多个RNN层来扩展它。但是,我在检索对应于编码器
隐藏
状态
的
输出时遇到了问题。下面是我在编码器
中
构建叠加
的
双向
GRUCell层
的
代码:def __init__(self, n_layers, dropout, ...):
浏览 4
提问于2020-06-27
得票数 0
回答已采纳
1
回答
查找
Pytorch
GRU
功能
的
TensorFlow等效项
、
、
、
、
我对
如何
在TensorFlow
中
重构以下
Pytorch
代码感到困惑。它同时使用输入大小x和
隐藏
大小h来创建
GRU
层 import torchtf.keras.layers.
GRU
(64, return_state=True) 然而,我意识到它并没有真正考虑到h或<
浏览 10
提问于2020-10-17
得票数 4
1
回答
如何
在
pytorch
LSTM
中
自定义多个
隐藏
层单元
的
数量?
、
、
在
pytorch
LSTM、RNN或
GRU
模型
中
,有一个名为"“
的
参数,它控制LSTM
中
隐藏
层
的
数量。我想知道,既然LSTM中有多个层,为什么参数"hidden_size“只是一个数字,而不是包含多个层
中
隐藏
状态
的
数量
的
列表,如10、20、30。我在处理一个回归项目时遇到过,在这个项目中,我将(seq_len,batch,feature)
的
序列数据提供给LSTM
浏览 6
提问于2019-01-07
得票数 1
1
回答
用于可变尺寸输入
的
小型批量培训
、
、
、
、
我是
PyTorch
和RNN
的
新手,所以我很困惑
如何
为我拥有的数据实现小型批量培训。有更多
的
这些数据,但我想保持简单,所以我只能理解
如何
实现小批量培训部分。我正在进行多类分类,基于LSTM/
GRU
在可变长度输入上训练
的
最终
隐藏
状态。我设法使它与批处理大小1(基本上是SGD)工作,但我正在努力实现小型批。我是否必须将序列压缩到最大大小,并创建一个包含所有元素
的
更大尺寸
的
新张量矩阵?DataLo
浏览 3
提问于2018-02-14
得票数 7
回答已采纳
1
回答
PyTorch
GRU
返回中
隐藏
状态层
的
顺序
、
、
、
、
这就是我要看
的
API, 对于具有多个层
的
GRU
,我想知道
如何
获取最后一个层
的
隐藏
状态,是h_n[0]还是h_n[-1]?如果是
双向
的
,
如何
进行切片以
获得
G
浏览 0
提问于2019-01-17
得票数 8
2
回答
在tensorflow
中
,
如何
迭代存储在张量
中
的
输入序列?
、
、
、
我正在尝试RNN来解决一个可变长度
的
多变量序列分类问题。我定义了以下函数来
获得
序列
的
输出(即,序列
的
最终
输入馈送后
的
RNN单元
的
输出) for x_single in x_sequence: hidden_state =
gru</em
浏览 15
提问于2016-07-22
得票数 10
回答已采纳
1
回答
如何
在
pytorch
上实现堆叠
的
rnn (层数> 1)?
、
、
pytorch
中
的
GRU
层接受一个名为num_layers
的
参数,您可以在其中堆叠RNN。然而,还不清楚后续
的
RNN
如何
确切地使用前一层
的
输出。递归层数。例如,设置num_layers=2将意味着将两个
GRU
堆叠在一起以形成堆叠
的
GRU
,第二个
GRU
接收第一个
GRU
的
输出并计算
最终
结果。这是否意味着
GRU<
浏览 6
提问于2021-09-23
得票数 2
1
回答
GRU
在火炬
中
的
输出只是
隐藏
的
状态吗?
我理解
GRU
是
如何
工作
的
,但现在我对Py火炬
中
GRU
的
“
隐藏
”和“输出”之间
的
区别感到困惑:“输出”只是
GRU
的
隐藏
状态,还是经过一些转换后
的
隐藏
状态?如果“输出”只是
隐藏
状态,为什么我们希望output和h_n同时作为
GRU
.forward
的
返回值,因为我们可以从output
的
最后一个元素<
浏览 4
提问于2022-07-09
得票数 1
回答已采纳
1
回答
关于
Pytorch
LSTM代码段
的
查询
、
、
、
在堆栈溢出线程
中
,有一行代码:有人能解释一下为什么最后和第一个令牌
的
连接而不是任何其他令牌吗这两个标记所包含
的
内容是什么?
浏览 1
提问于2022-10-21
得票数 0
回答已采纳
3
回答
Pytorch
中
的
GRU
单元
的
隐藏
和输出是相同
的
吗?
、
、
、
我确实从概念上理解了LSTM或
GRU
应该是什么(感谢这个问题),但是当我检查
GRU
h_n和output
的
输出时,它们是不同
的
,而它们应该是...., -0.0432, 0.2122, -0.1797]]],它们是每个other...why
的
转置吗?
浏览 13
提问于2019-06-20
得票数 1
1
回答
如何
获得
双向
GRU
的
序列、
隐藏
状态和单元状态?
、
、
encoder_
gru
= Bidirectional(
GRU
(nb_
gru
_cells,return_sequences=True, return_state=True))ValueError:没有足够
的
值来解压(预期
的
5,g
浏览 10
提问于2022-06-19
得票数 0
回答已采纳
1
回答
用于向量到字符序列翻译
的
LSTM方法
、
、
、
、
我想要建立一个序列到序列
的
模型,它需要一个2048年长
的
1s和0
的
向量(例如。.,1 )作为输入,并将其转换为已知
的
输出(可变长度) 1-20个长字符(例如。GBNMIRN、ILCEQZG或FPSRABBRF)。我
的
目标是建立一个模型,可以接受一个新
的
2048年长
的
1s和0向量,并预测输出序列
的
样子。但我不知道
如何
用我
的
问题来实现它。是否有任何项目已经做了类似的事情/
浏览 3
提问于2017-06-19
得票数 3
回答已采纳
1
回答
如何
将模型
中
的
尺寸从2D转换为1D?
、
、
、
、
我是使用
pytorch
的
初学者。我想将2d二进制数组(17 * 20 )分为8类,我使用交叉熵作为损失函数。我有512批次
的
尺寸。输入是512批大小(17 * 20 ),
最终
输出512批大小为8。我应用了以下模型,我希望
最终
输出仅是长度为8
的
列表。例如512,8,但我得到了模糊
的
。我
如何
从网络
中
获得
512,8作为
最终
输出。hidden_size=16,
浏览 22
提问于2021-02-15
得票数 0
回答已采纳
1
回答
为什么RNN在
隐藏
和输出之间没有权重?
、
PyTorch
RNN有RNN.weight_ih和RNN.weight_hh,前者是输入和
隐藏
层之间
的
权重,后者是
隐藏
层和
隐藏
层之间
的
权重。为什么
隐藏
和输出之间没有权重? ?
浏览 19
提问于2021-06-19
得票数 1
1
回答
子类GRUCell调用方法
中
的
tf.keras.Model循环
、
、
、
、
我对tf.keras.Model进行了子类化,并在for循环中使用tf.keras.layers.GRUCell计算序列'y_t‘(n,timesteps,hidden_units)和
最终
隐藏
状态'h_t为了让我
的
循环输出'y_t',我在循环
的
每一次迭代之后更新一个tf.Variable。用model(input)调用模型不是问题,但是当我用调用方法
中
的
for循环对模型进行拟合时,就会得到一个TypeError或ValueError.。本文不只是将
浏览 1
提问于2021-08-05
得票数 0
回答已采纳
2
回答
如何
在几次运行
中
再现RNN结果?
、
我连续两次对相同
的
输入调用相同
的
模型,结果不一样,这个模型有nn.
GRU
层,所以我怀疑它有一些内部状态,应该在第二次运行之前发布吗?一些背景: torch.manual_seed我已经检查过
GRU
在跑
浏览 1
提问于2019-05-17
得票数 2
回答已采纳
1
回答
句子特征向量
如何
在无监督
的
环境
中
获得
句子
的
特征向量?我相信对于图像数据,可以构建一个卷积自动编码器,并将
隐藏
层输出。对于RNN类型
的
模型(LSTM、
GRU
等),执行此操作
的
最佳方式是什么?这()会走在正确
的
轨道上吗?
浏览 3
提问于2016-08-05
得票数 0
2
回答
TensorFlow:从一个RNN获取所有状态
、
、
、
如何
在TensorFlow
中
从tf.nn.rnn()或tf.nn.dynamic_rnn()获取所有
隐藏
状态?API只给了我
最终
的
状态。第一种选择是在构建直接在RNNCell上操作
的
模型时编写一个循环。但是,时间步数对我来说不是固定
的
,它取决于传入
的
批处理。 一些选项是使用
GRU
,或者编写我自己
的
RNNCell,将状态连接到输出。另一种选择是做一些类似的事情,从一个RNN
中
获取所有变量。然而,我不确
浏览 2
提问于2016-09-27
得票数 12
1
回答
RNN L2正则化停止学习
、
、
、
我使用
双向
RNN来检测不平衡发生
的
事件。正面类
的
频率比负面类少100倍。虽然没有使用正则化,但我可以在训练集上
获得
100%
的
准确率,在验证集上
获得
30%
的
准确率。情况与我使用l2正则化是一样
的
,但我现在没有这样做。我在train+test和验证上
获得
了30%
的
准确率。在上述实验中使用128个
隐藏
单元和80个时间步时,当我将
隐藏
单元
的
数量增加到256时,我可以再次在
浏览 0
提问于2016-10-21
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券