腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(7314)
视频
沙龙
1
回答
批量
大小
、
序列
长度
和
hidden_size
之间
的
关系
是什么
?
、
、
在阅读dynamic_rnn
的
接口文档时,我有以下问题:
序列
长度
单元( <= )
hidden_size
,或者,我说
的
对
浏览 6
提问于2017-12-11
得票数 1
0
回答
用numpy实现RNN
、
、
、
我目前
的
输入
和
输出设计如下:h:(层数,方向数,
批量
大小
,隐藏
大小
)weight:(层数-1,方向数,隐藏
大小
,方向*隐藏
大小
+隐藏
大小
) bias:(层数,方向数,隐藏
大小</e
浏览 1
提问于2018-07-22
得票数 11
2
回答
理解PyTorch LSTM
的
输入形状
、
、
、
这似乎是PyTorch中关于LSTM最常见
的
问题之一,但我仍然无法弄清楚PyTorch LSTM
的
输入形状应该
是什么
。 即使在跟踪了几个帖子(、、)并尝试了解决方案之后,它似乎也不起作用。背景:我在一批
大小
为12
的
文本
序列
中编码了文本
序列
(可变
长度
),并使用pad_packed_sequence功能对
序列
进行填充
和
打包。每个
序列
的
MAX_LEN为384,
序列
中<e
浏览 6
提问于2020-05-06
得票数 16
回答已采纳
2
回答
在PyTorch中向RNN提供数据
的
正确方法
、
、
、
我有一个数据
序列
a,它
的
形状是[seq_len, 2],seq_len是
序列
的
长度
。a[:, 0]
和
a[:, 1]元素
之间
存在时间相关性,而a[:, 0]
和
a[:, 1]相互独立。为了训练,我准备了形状[batch_size, seq_len, 2]
的
数据。我使用
的
BRNN
的
初始化是 birnn_layer = nn.RNN(input_size=2,
hidden_size
=10
浏览 2
提问于2020-10-13
得票数 3
1
回答
如何传递到变长线性数据?
、
、
、
、
我试图通过先将数据传递给RNN,然后再传递给what来进行
序列
分类,通常我只是将输出从[batch_size, sequence_size,
hidden_size
]转换到[batch_size, sequence_size*
hidden_size
],将其传递给线性,但是在这种情况下,我有不同
长度
的
序列
,所以RNN
的
输出可能是[batch_size, 32,
hidden_size
]或[batch_size, 29,
hidden_size</
浏览 1
提问于2022-05-03
得票数 0
回答已采纳
1
回答
为什么一些普通
的
RNN被初始化为具有隐藏状态
的
sequence_length=1,用于mnist图像分类
、
、
、
我遇到了几个使用RNN对MNIST数字进行分类
的
例子,用sequence_length=1初始化隐藏状态
的
原因
是什么
?如果你提前1步预测视频帧,你会如何初始化它?self.hidden = h0inputs = inputs.view(batch_size*image_height, 1, image_width) 在上面的例子中,图像是按列传递
的
吗有没有其他方法来表示RNN中
的
输入图像?它与如何初始化隐藏状态有什么
关系
?
浏览 1
提问于2020-10-31
得票数 0
3
回答
理解一个简单
的
LSTM电筒
、
、
、
(torch.randn(2, 3, 20))output, hn = rnn(input, (h0, c0)) rnn = nn.LSTM(input_size=num_hyperparams,
hidd
浏览 8
提问于2017-07-10
得票数 35
回答已采纳
1
回答
虚拟存储系统
关系
、
虚拟存储系统具有页
大小
p、块
大小
b
和
固定
长度
的
记录
大小
。p,b
和
r
之间
的
关系
应该
是什么
,才能使系统最有效?
浏览 1
提问于2010-12-04
得票数 0
1
回答
在Tensorflow 1.9中建立LSTM
的
初始状态
、
、
、
我试图建立一个简单
的
LSTM网络,2层叠加。为此,我使用MultiRNNCell。我遵循教程
和
其他堆栈主题,但我仍然有一个问题来运行我
的
网络。下面您可以找到初始状态声明,我在堆栈中找到了。initial_state = rnn.LSTMStateTuple(init_c, init_h) #[num_layers, 2, batch_size, state_size]) 下面您可以看到我
的
模型
是什么
样子
的
feed_dict={self.X: batch_x, self.Y:batch_y
浏览 0
提问于2018-07-19
得票数 0
回答已采纳
1
回答
在pytorch中屏蔽
和
计算通过具有线性输出层
的
RNN发送
的
填充批次
的
损失
、
虽然这是一个典型
的
用例,但在通过RNN发送时,我找不到一个简单而明确
的
指南来说明在pytorch中计算填充小
批量
的
损失
的
规范方法
是什么
。我认为一个规范
的
管道可能是: 1) pytorch RNN需要形状
的
填充
批量
张量:(max_seq_len,batch_size,emb_size) 2)所以我们给出一个嵌入层,例如这个张量: tensor
批量
大小
为2。嵌入层将使其成为形状(max_seq_len,
浏览 18
提问于2019-12-12
得票数 2
回答已采纳
1
回答
拟散函数目标形状失配
、
、
、
、
我正在训练一个LSTM模型,使用
的
是批处理
大小
为256个
和
NLLLoss()作为丢失函数
的
pytorch。损失函数与数据形状有问题。前向传递
的
软件最大输出具有torch.Size([256, 4, 1181])形状,其中256个是批
大小
,4个是
序列
长度
,1181是语音
大小
。目标为torch.Size([256, 4])形状,其中256个是批
大小
,4个是输出
序列
长度
。 当我先前测试批
浏览 1
提问于2020-02-07
得票数 3
回答已采纳
1
回答
LSTM中权重矩阵
的
维数
、
我正在尝试使用以下激活定义来实现一个LSTM Unit对象:我想确认我
的
形状是正确
的
。出于目的
和
目的,假设我
的
数据是一些任意
的
时间
序列
数据。输入x^(t)具有形状(1,输入
大小
) 我不确定h^(t-1)
的
大小
。我假设它是一个形状
的
列向量(隐藏
大小
为1)。如果有,原因何在?当列堆叠(或连接)这两个向量时,我应该得到一个形状矩阵(隐藏
大小
,input_size)。这是正确<
浏览 0
提问于2018-07-29
得票数 0
3
回答
在等宽字体中,字体
大小
和
字符宽度
之间
的
依赖
关系
是什么
?
、
、
在等宽字体中,字体
大小
和
字符宽度
之间
的
依赖
关系
是什么
?在我
的
web应用程序中,我使用了"courier new“字体。我想知道,字符串
的
实际
长度
是多少?如果我知道css
的
字体
大小
属性,它如何帮助我知道字符串
的
真正
长度
?谢谢
浏览 0
提问于2013-10-01
得票数 14
1
回答
用于视频识别的CNN + RNN结构
、
、
、
、
但我很难在我
的
模型中找到将CNN
和
LSTM结合起来
的
正确方法。以下是我
的
尝试: def __init__(self,
hidden_size
, n_classes): output = self.classifier(output.view(-1, 4096)) 因为我
的
视频有可变<
浏览 1
提问于2020-08-24
得票数 1
1
回答
如何在两个
序列
之间
进行匹配?
我有两个小
批量
的
序列
:b = C.sequence.input_variable((10)) 我该怎么做呢?
浏览 1
提问于2017-08-14
得票数 0
1
回答
对火炬中LSTMCell向后机制
的
认识
、
、
、
num_layers) l.register_backward_hook(backward_hook) 在前一次传递中,我简单地迭代了
序列
长度
的
(batch_size, input_size),prev_hiddens[i]为(batch_size,
hidden_size
)
的
大小
,prev_cells[i]为(batch_size,
hidden_size
)
的
大小
。
浏览 0
提问于2019-05-07
得票数 1
1
回答
如何建立用于
序列
预测
的
lstm模型
、
、
、
、
我每分钟都会记录来自机器
的
信号,持续6个小时。即机器
的
信号
长度
为6*60 = 360。我
的
客户已经为每台机器记录了这些信号一个月。换句话说,每台机器有360个28天
的
信号
长度
。我
的
数据集中有大约2000台机器
的
数据。 如果你想知道我
的
数据集
是什么
样子
的
,我在下面给出了一个快速
的
概述(注意:每天
的
每个信号都有360个
长度
,如问题中所述)。我
浏览 26
提问于2019-12-15
得票数 0
回答已采纳
1
回答
对查询结果进行多头分页
、
、
、
我们有一个用于对象
之间
关系
建模
的
微服务。在主对象
和
次对象
之间
定义具有基数约束
的
关系
,如1-1、1-N、N-N等。微服务提供创建
关系
、查找
关系
、获取次要对象、获取初级对象等API。此消费服务接受类似的分页选项,如页面索引
和
编号,并将其传递给
关系
服务,并将从
关系
服务获得
的
页面结果返回给调用应用程序。到目前为止一切都很好。因此,我们想让"Get Seconda
浏览 0
提问于2018-11-18
得票数 1
1
回答
RNN中填充
和
掩蔽
序列
的
实现
、
、
作为练习,我正在构建一个用于
序列
二进制分类
的
网络(
序列
是属于A型还是B型)。该网络由一个具有一个LSTM层
的
RNN组成,并在其之上形成一个输出分类
的
MLP。我将不同
长度
的
序列
批量
输入到网络中,这意味着我需要对
序列
进行填充,使其
长度
相等,并屏蔽网络
的
输出,使它们与原始
序列
相同
长度
。 在PyTorch中实现填充/掩蔽
的
正确
浏览 0
提问于2023-05-30
得票数 0
1
回答
火炬式LSTM输入尺寸有问题
、
、
、
、
我得到
的
错误是:详细信息{"catFalse) (sig): Sigmoid()最后,我得到了inputs
和
labels
的
以下维度inputs, labels = bat
浏览 7
提问于2020-05-14
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
云桌面 云终端和云教室三者之间是什么关系的
芯片、半导体和集成电路之间的区别是什么,又有怎样的关系呢?
别再管你的 API 叫微服务了:容器、微服务和API之间是什么关系?
双向循环神经网络及TensorFlow实现
谷歌大批量优化研究取得重大突破!
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券