腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
深度学习图书馆
中
NLP的动态批处理和
填充
批
、
、
、
、
这是我们训练NLP的现代深度学习模型的常用方法,例如,在Huggingface库
中
,输入no有一个固定的长度。指记号/音音单位。https://huggingface.co/docs/transformers/pad_截断 在下面的例子
中
,我们有5个不同长度的句子,它们都被
填充
到最大长度设置为1024。我问题的第一部分是关于GPU内存的使用和pad,当我们训练带有
填充
输入的批数据的模型时,
填充
的令牌会占用GPU RAM吗?即使模型不计算它们,因为
浏览 0
提问于2023-04-07
得票数 2
1
回答
不同
序列
长度批次的多头自关注输出尺寸
、
在处理小批
中
不同长度的
序列
时,我们使用pad
序列
,使批处理
中
的所有
序列
都具有相同的长度。 假设数据集中的大多数
序列
都是<500个元素长,但是有一些非常长的
序列
可以是1000s的元素长。如果我想在不截断的情况下处理那些非常长的
序列
,那么即使输入批次不包含任何长
序列
,多头自我关注层的大小也必须根据最长的
序列
量身定做吗?
浏览 0
提问于2022-09-08
得票数 0
回答已采纳
1
回答
在Keras
中
处理批处理
中
可变长度的
序列
、
、
、
、
也就是说,数据的特征是可变长度的
序列
,
序列
的每个元素用10个数字表示。现在,我们希望将其提供给LSTM,并且希望LSTM停止更新
填充
输入的输出。 在
Tensorflow
中
,这将通过其sequence_length的参数来完成。我如
何在
Keras
中</e
浏览 1
提问于2018-10-28
得票数 0
回答已采纳
1
回答
如
何在
tensorflow
中
填充
序列
、
、
tf.RaggedTensor [[0, 1, 2], [0, 1]]><tf.RaggedTensor
浏览 21
提问于2020-06-12
得票数 1
回答已采纳
2
回答
tensorflow
中
的Pad可变长度
序列
我正在尝试将CNN的输出输入到
TensorFlow
的RNN
中
。[1, 9, 25, 29, 31, 10, 23, 29, 37, 36] 我可以得到最大
序列
号,在这种情况下,它将是37。问题是如
何在
不同的位置
填充
(1,230,2048)张量,以便用相同数量的
序列</e
浏览 3
提问于2016-12-18
得票数 2
1
回答
零
填充
物没有正确地执行我想
、
、
、
、
序列
长度是可变的,因为音频文件的长度不同,使得包含样本的向量也变得不同长度。import
tensorflow
as tffrom
tensorflow
.models.rnnsession.py", line 340, in run File "/usr/
浏览 7
提问于2016-10-24
得票数 0
回答已采纳
2
回答
如何拟合不同长度的特征向量的scikit模型
、
、
、
、
我将我的特性表示为2d矩阵,其中每一列代表音频文件
中
的一个帧(例如。每一行都是一个仅与该时间框架相关的特性(例如。MFCC系数)。现在,虽然我的行计数是固定的,列的数量将根据记录的长度而变化。现在我看到了许多解决方案: 当使用像K-NN这
浏览 7
提问于2020-07-14
得票数 0
1
回答
tf、train.SequenceExample的批量
填充
和混洗
、
、
我一直在关注一些参考文献,比如在和
中
,看看我们如
何在
批处理
中
同时执行
填充
和混洗。第一个链接更接近我的预期,但
填充
不会在批处理
中
混洗。单个批次被混洗,但不是批次元素。在第二个链接
中
,使用了标准的
tensorflow
,
如
tf.train.batch和tf.train.suffle_batch,前者只做
填充
,但不做混洗。是否有其他方法可以在批处理
中
同时执行
填充
和混洗操作
浏览 4
提问于2017-06-24
得票数 0
2
回答
Tensorflow
展开的LSTM比输入
序列
长
、
、
我想在
tensorflow
中
创建一个LSTM来预测时间
序列
数据。我的训练数据是一组不同长度的输入/输出
序列
。我可以在同一批训练
中
包含多个不同长度的
序列
吗?或者我需要将它们
填充
成相同的长度?另外:如果展开的RNN比输入
序列
长,
tensorflow
会做什么?rnn()方法包含一个可选的sequence_length参数,该参数似乎旨在处理这种情况,但我不清楚它是做什么的。
浏览 2
提问于2016-05-11
得票数 1
2
回答
Tensorflow
中
变长
序列
的双向LSTM
、
、
我想在
tensorflow
中
训练一个双向LSTM来执行
序列
分类问题(情感分类)。如何使用双向LSTM来管理这个问题?"sequence_length“参数是否自动从后向
序列
中
的高级位置开始工作? 谢谢
浏览 4
提问于2017-03-21
得票数 7
1
回答
深度学习与时间
序列
:可变向量长度
、
、
这是一个关于在深度学习中使用不同长度的时间
序列
的概念性问题:xxxx(T=2)xxxx(T=4)xxxx(T=5)xxxx(T=3)然后用零
填充
结束我的问题是,是否可以假定神经网络能够独立地区分这个时间
序列
浏览 3
提问于2017-03-24
得票数 3
回答已采纳
1
回答
Pytorch相当于`tf.reverse_sequence`?
、
、
我想在
填充
序列
上执行反向LSTM,这需要在没有
填充
的情况下颠倒输入
序列
。对于这样的批处理(其中_代表
填充
): a b c _ _ _h i j k l m 如果想要获得: c b a _ _ _m l k j i h
TensorFlow
有一个函数tf.reverse_sequence,它接受批处理
中
序列
的输入张量和长度,并返回相反的批处理。
浏览 31
提问于2019-04-29
得票数 2
回答已采纳
1
回答
用
Tensorflow
RNN生成恐龙名称
、
、
aachenosaurusabdallahsaurusabrictosaurusabydosaurus在我的例子
中
,字符
序列
是名字。只要我不能在不同长度的
序列
上训练RNN (如果我错了,请告诉我),我需要把我所有的名字都用空格
填充
到一个最长的名字,也就是26。"# Convert individual characters to sequenc
浏览 0
提问于2020-05-26
得票数 0
回答已采纳
1
回答
焊枪与
tensorflow
卷积层填料的差异
、
、
torch.nn.Conv2d(7, 64, kernel_size=(7, 7), stride=(2, 2), padding=(3, 3))我们如
何在
tensorflow
浏览 3
提问于2020-07-14
得票数 1
1
回答
计算每个时间步的可变长度输出的成本
、
、
、
、
我正在尝试使用LSTM cell和
Tensorflow
创建一个文本生成神经网络。我正在用时间为主的格式time_steps,batch_size,input_size来训练网络上的句子,我希望每个时间步都能预测
序列
中
的下一个单词。
序列
被
填充
空值直到时间步长,并且单独的占位符包含批次
中
每个
序列
的长度。 关于时间反向传播的概念有很多信息,但是我找不到任何关于
tensorflow
中用于可变长度
序列
成本计算的实际实现的信息。由于
序列<
浏览 19
提问于2017-12-31
得票数 1
回答已采纳
1
回答
CORBA VMS如何编写方法?
、
Method (ServerException); }; void我知道我必须在IDL文件
中
创建一个新的Stub和一个新的Skelton
浏览 2
提问于2013-06-19
得票数 0
1
回答
Tensorflow
模型量化最佳策略
、
、
、
、
我对
Tensorflow
训练后量化过程感到困惑。官方网站提到了
Tensorflow
Lite量化。不幸的是,这在我的例子
中
不起作用,也就是说,TFLiteConverter为我的Mask RCNN模型返回错误:Br
浏览 22
提问于2020-03-02
得票数 2
2
回答
Tensorflow
序列
掩码不降维
、
我有一个要运行的示例代码:import
tensorflow
as tftfe.enable_eager_execution如
何在
tensorflow
中
做到这一点,因为我使用的是RNN数据,所以我的张量大小是= [batch_size, max_time, feature_length],其中我会对其进行切片,以便: indexes如果不可能,有没有办法在这样大小的多个张量上对掩码进行排序
浏览 0
提问于2018-03-25
得票数 4
1
回答
如
何在
tensorflow
中
实现双向编码器?
、
、
、
、
在
Tensorflow
中
,所有的编码器-解码器功能()都使用RNN单元的单向实现。 我们如
何在
Tensorflow
中
实现双向编码器(或类似系统),以便在编码器-解码器设置
中
同时学习前向和后向
序列
?
浏览 8
提问于2016-07-30
得票数 4
1
回答
为什么Tensoflow seq2seq将所有
序列
都放置到相同的固定长度?
、
、
我正在尝试使用
Tensorflow
来实现聊天机器人及其seq2seq的实现。在阅读了不同的教程(、、)和原始论文之后,我无法解释为什么
Tensorflow
seq2seq实现会将所有
序列
(输入和输出)都存储到相同的固定长度
中
。示例:x = [[5, 7, 8], [6, 3], [3], [1]] RNN需要一个不同的布局。
序列
短于最长的
序列
在结尾处
填充
零。这个布局称为time-major。
浏览 2
提问于2018-01-19
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何在Excel中自定义填充序列
如何在Excel表格中快速跨行填充格式?
【WPS神技能】如何在WPS-Excel表格中循环填充序号?
【WPS神技能】如何在WPS-Word文档中批量填充内容?
【WPS神技能】如何在WPS-Excel表格中快速填充一千个序号?
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券