腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1316)
视频
沙龙
1
回答
如
何为
可变
长度
序列
制作
掩码
,
然后
在
RNN
的
tensorflow2
中
填充
这些
掩码
tensorflow
、
padding
、
recurrent-neural-network
、
masking
尝试
在
LSTM网络
中
实现一系列时间段
的
掩码
,并
填充
零。每个时间周期
序列
具有不同
的
长度
,因此需要
填充
和掩蔽。我正在尝试对
长度
为96(时间段)和features=33
的
序列
进行建模。简化
的
数据(7个时间段和3个特征)如下所示: time0(t0)
的
时间周期= 4、2、9
的
示例状态 示例
序列
= [2,3,6,1,6,
浏览 19
提问于2020-07-28
得票数 0
1
回答
Tensorflow dynamic_
rnn
降级
python
、
tensorflow
、
keras
、
recurrent-neural-network
、
embedding
tf.nn.dynamic_
rnn
似乎遭到了反对: 我已经签出了keras.layers.
RNN
(单元格),它说它可以使用掩蔽,我假设它可以替代dynamic_
rnn
的
sequence_length该层支持用
可变
的
时间步骤对输入数据进行掩蔽。若要将
掩码
引入数据,请使用嵌入层,将mask
浏览 2
提问于2019-03-20
得票数 3
回答已采纳
2
回答
RNN
是否应该将
可变
长度
序列
上
的
注意力权值重新归一化为“掩蔽”零
填充
效应?
tensorflow
、
machine-learning
、
deep-learning
、
rnn
、
attention-model
自我关注基本上只是计算
RNN
隐藏状态
的
加权平均值(均值池
的
推广,即非加权平均)。当同一批中有
可变
长度
序列
时,它们通常是零
填充
到批中最长
序列
的
长度
(如果使用动态
RNN
)。当计算每个
序列
的
注意权值时,最后一步是一个软件最大值,因此注意权重之和为1。 然而,
在
我所看到
的
每一次注意实现
中
,都没有注意掩盖或取消零
浏览 0
提问于2018-03-27
得票数 12
回答已采纳
1
回答
直接训练Transformer编码层和
填充
序列
的
正确方法
deep-learning
、
pytorch
、
transformer
我已经有了嵌入
序列
,我将其视为我
的
数据集。我对如何处理
填充
和注意
掩码
感到困惑,只想确保我
的
理解是正确
的
。 我
的
序列
的
长度
从3到130不等。这是否意味着我应该将我
的
所有
序列
都
填充
到130个部分?如果是这样,我
填充
哪个值有关系吗? 对于注意力面具,我相信我希望每个部分都关注
序列
中
的
所有其他部分。<
浏览 39
提问于2021-08-16
得票数 2
回答已采纳
1
回答
变长
序列
上窗口
的
平均池
python
、
tensorflow
、
moving-average
、
pooling
我有一个形状
的
张量in (batch_size,功能,步骤),并希望通过时间维度(steps)上
的
平均池( steps)获得相同形状
的
输出张量out,窗口大小为2k+1,即:对于没有k之前和后续时间步骤
的
时间步骤,我只想计算现有时间步骤
的
平均值。然而,张量
中
的
序列
具有
可变
的
长度
,并相应地
填充
了零,因此,我将<em
浏览 8
提问于2020-03-23
得票数 0
回答已采纳
1
回答
在
动态
rnn
中
填充
具有0个向量
的
批次
tensorflow
、
rnn
我有一个处理输入数据
的
可变
序列
的
预测任务。根据这篇文章,直接使用动态
rnn
会遇到拆分输出
的
麻烦: 因此,我想知道是否有可能
填充
整个
序列
批次,以使所有示例都具有相同数量
的
序列
,
然后
在
tf.nn.dynamic_
rnn
的
sequence_length参数
中
,我为
填充
的
序列
批次指
浏览 16
提问于2017-08-12
得票数 0
1
回答
神经网络
中
的
超长
序列
deep-learning
、
lstm
、
sequence
、
sequence-to-sequence
初学者关于神经网络
中
序列
的
问题:假设我有分类问题,看起来如下: 类取决于整个
序列
--不可能在没有看到所有类
的
情况下确定类。NN是怎么处理这个
的
?我已经阅读过各种方法,例如截断
序列
(这是一个问题--
序列
的
截短部分没有类,所以我不能标记它),使用编码器/解码器lstm (同样,不能完全理解它如何解决问题)等等。
浏览 0
提问于2018-05-03
得票数 2
1
回答
ValueError:检查输入时出错:期望the_input具有三维,但得到形状为(14174,1)
的
数组
lstm
、
rnn
、
speech-to-text
、
reshape
在对音频数据进行预处理并应用"MFCC特征化“之后,我将所有内容添加到列表
中
并获得(14174,)
的
形状。知道每个样本有不同
的
长度
,但是有相同数量
的
特性,例如:print(X[12000].shape)>> (301, 13) 现在,当我用定义为checking input: expected the_input to have 3 dimensions, but got array with shape
浏览 0
提问于2020-07-01
得票数 0
1
回答
如何解决LSTM DQN
的
数组输入形状错误?
input
、
lstm
、
layer
、
shapes
、
dqn
我正在构建一个带有LSTM层
的
DQN。尝试将96timeperiod,33个特征数组传递给模型,以进行训练,即: shape=(96,33)还试图实现后
填充
掩码
(val=0。)以适应
可变
长度
序列
(最大length=96)。lr=LEARNING_RATE, decay=DECAY),当我提交一个名为current_states、形状为(96,33)
的
序列
时Fu
浏览 18
提问于2020-08-01
得票数 0
2
回答
掩蔽层与attention_mask参数
在
MultiHeadAttention
中
的
关系
python
、
tensorflow
、
keras
、
transformer-model
我
在
变压器模型中使用MultiHeadAttention层(我
的
模型非常类似于命名实体识别模型)。因为我
的
数据有不同
的
长度
,所以我
在
MultiHeadAttention中使用
填充
和attention_mask参数来屏蔽
填充
。如果我
在
使用Masking层之前使用MultiHeadAttention,它是否会产生与attention_mask参数相同
的
效果?
浏览 27
提问于2022-09-07
得票数 5
回答已采纳
1
回答
Tensorflow取蒙面张量元素
的
平均值
python
、
tensorflow
、
mean
、
mask
、
loss-function
为了处理
可变
长度
的
输入
序列
,所有输入
序列
都被
填充
到相同
的
长度
中
。这对计算损失价值有影响。因此,
掩码
张量与损耗张量相乘,使
填充
元素0产生
的
损失。但在使用tf.math.reduce_mean或tf.keras.metrics.Mean计算损失平均值时,
这些
填充
元素对平均损失有影响。 所以我
的
问题是,怎样才能算出坦索弗洛
的<
浏览 11
提问于2019-11-23
得票数 0
回答已采纳
1
回答
从不同
长度
的
数组列表
中
输入队列
python
、
input
、
tensorflow
、
queue
、
pipeline
我有一个不同
长度
的
数组列表(可以是numpy数组,也可以是int列表),我希望将其输入到一些TensorFlow队列
中
,以测试更大
的
输入管道--而不是
序列
化它们并从文件系统
中
重新读取。有可能吗?
浏览 8
提问于2017-04-27
得票数 0
1
回答
为什么批处理不能有
可变
长度
的
序列
/数据条目(例如是句子)?
tensorflow
、
neural-network
、
keras
、
recurrent-neural-network
、
backpropagation
我读过许多关于如何在批
中
包含
可变
长度
序列
的
帖子(我理解对
这些
帖子
的
答复),但是我找到
的
唯一一篇关于为什么是的文章,答案是“
在
一个批内,您必须有相同
的
时间步骤,因为它必须是一个张量(这是典型
的
0
填充
)”。
在
训练批次
中
,为什么数据条目(我举了例句
的
例子)不能有
可变
的
长度
(
浏览 0
提问于2018-08-25
得票数 1
1
回答
Tensorflow数据集
掩码
序列
用于评价
python
、
tensorflow
、
keras
问题:我有一个用tf.data.Dataset表示
的
数据集,其中每个示例包含3个属性: src -输入sequencetgt
浏览 0
提问于2020-07-23
得票数 0
1
回答
快速和慢速标记器产生不同
的
结果
python
、
nlp
、
huggingface-transformers
、
bert-language-model
、
huggingface-tokenizers
在
使用HuggingFace
的
pipeline tool时,我惊讶地发现在使用快速记号赋值器与慢速记号赋值器时,输出存在显著差异。具体地说,当我运行
填充
掩码
管道时,分配给
填充
掩码
的
单词
的
概率对于快速和慢速记号赋予器是不同
的
。此外,尽管快速标记器
的
预测保持不变,而与输入
的
句子数量和
长度
无关,但对于慢速标记器则不是如此。为简洁起见,我省略了实际输出,但在所有示例
中
,分
浏览 27
提问于2020-04-12
得票数 3
2
回答
TensorFlow
中
的
序列
标记
sequence
、
tensorflow
、
lstm
我已经成功地用tensorflow训练了一个word2vec,并且我想把
这些
结果输入到一个带有lstm细胞
的
rnn
中进行
序列
标记。有人能为我指出如何开始这项任务
的
正确方向吗?
浏览 0
提问于2015-12-25
得票数 7
回答已采纳
1
回答
不规则间隔
的
事件建模
machine-learning
、
deep-learning
、
feature-engineering
我得到
的
数据代表了一系列不定期
的
事件和结果。有固定数量
的
事件类型,其中大约10种。正在建模
的
结果是二进制
的
。可以说,将以下内容纳入该模式是重要
的
:( 2)事件发生
的
顺序用户有事件A
在
开始,5个月后事件C,结果是积极
的
。另一个用户有事件B
在
开始,3天后事件A,2天后事件D,结果是否。 我还为每个用户提供了一些静态(非
序列
数据),我想要合并
浏览 0
提问于2020-02-03
得票数 1
回答已采纳
2
回答
如果我不想做自回归,我如何使用PyTorch Transformers完成seq2seq任务?
python
、
pytorch
、
transformer
我可能错了,但看起来PyTorch转换器是自回归
的
,这就是屏蔽
的
目的。但是,我见过一些实现,人们只使用编码器并将其直接输出到Linear层。
在
我
的
例子
中
,我试图将一个语谱图(行是频率,列是时间步)转换为另一个相同维度
的
语谱图。我正在尝试弄清楚如何做到这一点,这是一段不可能
的
时间。mask.float().masked_fill(mask == 0, float('-inf')).masked_fill(mask == 1, float(0.0))
浏览 0
提问于2020-11-11
得票数 8
1
回答
Tensorflow RNNs变长
序列
填充
零对学习
的
影响
python
、
tensorflow
我
在
tensorflow
中
设置了一个
RNN
,它接受一个
可变
的
序列
,并在
序列
的
末尾进行1次预测。 我已经将我
的
数据
填充
到了500
序列
的
最大
长度
,但是一批
中
的
许多
序列
将小于500。我使用dynamic_
rnn
并将批处理
中
每个样本
的
序列
长
浏览 2
提问于2016-12-05
得票数 3
回答已采纳
2
回答
Tensorflow
中
变长
序列
的
双向LSTM
tensorflow
、
lstm
、
bidirectional
我想在tensorflow
中
训练一个双向LSTM来执行
序列
分类问题(情感分类)。如何使用双向LSTM来管理这个问题?"sequence_length“参数是否自动从后向
序列
中
的</em
浏览 4
提问于2017-03-21
得票数 7
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
用Mask R-CNN自动创建动图
为什么 XLNet 能够在 20 多项任务中胜过 BERT?
涨姿势!原来JavaScript运算符还可以这么玩
基于Self-attention的文本向量表示方法,悉尼科技大学和华盛顿大学最新工作
参数集约型掩码网络效果显著
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券