腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(7345)
视频
沙龙
1
回答
在
seq2seq
模型
中
,
训练
解码器
和
推理
解码器
之间
共享
什么
?
tensorflow
、
machine-learning
、
recurrent-neural-network
、
seq2seq
我目前正在开发一个
seq2seq
模型
,但无法理解列车
解码器
和
推理
解码器
之间
共享
的内容。
浏览 10
提问于2019-07-02
得票数 0
1
回答
seq2seq
中
的提要非占位符变量
tensorflow
、
recurrent-neural-network
我正在使用Tensorflow
seq2seq
模型
,我想知道如何为经过
训练
的
seq2seq
解码器
提供任意的初始
解码器
内存(
在
训练
期间,这个初始
解码器
内存是编码器的输出)。我认为我需要使用feed_dict
和
TF强制我输入序列,因为它定义了一个占位符,
解码器
输入也是如此。 但如果我这样做了,我实际上不能强制初始
解码器
内存成为我想要的样子,因为它是从
解码器
输入定义的。
浏览 20
提问于2017-01-28
得票数 1
1
回答
对tf.contrib.seq2seq.dynamic_docode final_outputs的理解
tensorflow
、
seq2seq
当我阅读
seq2seq
教程时,我无法理解tf.contrib.seq2seq.dynamic_docode函数的输出。本教程使用sample_id = outputs.sample_id
和
logits = self.output_layer(outputs.rnn_output)访问
解码器
在
训练
中使用的输出,而在
推理
中使用logits = outputs.rnn_output
和
sample_id = outputs.sample_id。logits
和
s
浏览 1
提问于2018-05-24
得票数 3
0
回答
尝试
在
Keras
中
构建编码器-
解码器
模型
时出现图形断开连接错误
python
、
keras
、
encoder-decoder
我正在尝试
在
Keras
中
实现一个基于下图的编码器-
解码器
模型
的简化版本(来源:)。请注意,此
模型
中
只有一个编码器和
解码器
,为了清晰起见,它们已在图像
中
展开。我现在只关注底部分支,不包括attention
和
一个样式标签s_i。为了获得指导,我一直
在
seq2seq
模型
上关注这个。是我定义这个
模型
的脚本。
训练
运行成功,但我
在
浏览 3
提问于2018-07-16
得票数 1
回答已采纳
1
回答
不偷看或不注意的简单深度
seq2seq
会收敛吗?
deep-learning
、
autoencoder
深度
seq2seq
模型
有没有成功的应用,
解码器
在
第一步只读取编码器的输出状态(编码器内部状态的最后一步),并进行多步解码?
在
每一步,
解码器
的输入仅仅是前一步的输出
和
状态。我可以看到一些
seq2seq
自动编码器的实现,不知道它们
在
经过长时间的
训练
后是否真的收敛了,特别是当内部状态很小时。
浏览 0
提问于2017-05-20
得票数 0
1
回答
seq2seq
-编码器反向传播
machine-learning
、
tensorflow
、
lstm
、
backpropagation
、
encoder
我很难理解
seq2seq
模型
中
的编码器是如何进行反向传播的.没有标签,因此不可能计算错误,这是反向传播的,但LSTM层的权重被以某种方式更新。
浏览 7
提问于2017-09-22
得票数 1
2
回答
如何在没有文档上下文的情况下去标记spacy文本?
nlp
、
spacy
我有一个序列序列
模型
,
训练
在
spacy的标记化所形成的标记上。这是编码器和
解码器
。输入到
Seq2Seq
:某些文本
在
spacy
中
是否有任何API来逆转令牌化,这是由其令牌程序
中
的规则完成的?
浏览 1
提问于2018-05-14
得票数 3
回答已采纳
1
回答
机器翻译
中
的Tensorflow
解码器
tensorflow
、
lstm
、
machine-translation
、
encoder-decoder
、
gated-recurrent-unit
它有用于
解码器
的下列代码: def __init__(self, vocab_size, embedding_dim, dec_unitsshape == (batch_size, vocab)我在这里不明白的是,
解码器
的根据我的理解,只有当
解码器
用“思想向量”或编码器的最后隐藏状态初始化时,编码器和
解码器
之间
才
浏览 3
提问于2021-02-15
得票数 1
回答已采纳
1
回答
在
自动编码器设置
中
,
解码器
的输入究竟是
什么
?
machine-learning
、
autoencoder
我正在回顾各种自动编码器设置,用于MNIST重建,
Seq2Seq
翻译
和
其他。我对数据流的天真理解如下:📷我想知道
解码器
的输入如何依赖于目标任务?为
什么
我们需要在隐藏状态之外放置输入序列?如有任何高级别的解释,我们将不胜感激。
浏览 0
提问于2017-12-05
得票数 3
回答已采纳
1
回答
变压器译码器注意层
中
令牌
在
推理
中
的应用问题
matrix-multiplication
、
huggingface-transformers
、
transformer-model
、
attention-model
、
self-attention
我观察了
解码器
期间使用的形状(包括自关注块
和
enc-dec-关注点块),并了解到
解码器
在
训练
期间的运行方式与基于
推理
的
和
原始的运行方式有所不同。
在
推理
中
,它使用之前生成的所有标记(例如,k第th时间步骤),如下图所示,并在
中
解释。 我非常困惑的是,
在
解码器
的自我关注
和
decoder注意中的所有矩阵的形状如何能够
在
浏览 5
提问于2021-11-08
得票数 0
1
回答
Tensorflow嵌入
tensorflow
、
deep-learning
、
lstm
、
word2vec
我知道
什么
是嵌入,以及它们是如何
训练
的。准确地说,
在
参考tensorflow的文档时,我看到了两篇不同的文章。我想知道他们到底有
什么
不同。链接1:tf.nn.embedding_lookup()
在
训练
LSTM网络时起作用。然而,在这第二篇文章
中</e
浏览 5
提问于2017-09-19
得票数 0
1
回答
变压器
模型
不同部分的权重
共享
machine-learning
、
neural-network
、
deep-learning
、
nlp
、
transformer
📷 变压器的哪个部分分担重量,比如,所有的编码器都有相同的重量,还是所有的
解码器
都有相同的重量?
浏览 0
提问于2020-11-04
得票数 4
回答已采纳
1
回答
在
加载
模型
中将return_state=True设置为LSTM层
tensorflow
、
keras
我
训练
了一个编
解码器
模型
,并将其保存到一个文件
中
,但结果发现我忘记了将
解码器
的LSTM层上的return_state标志设置为true。现在我无法实现
推理
。是否可以
在
构造函数之外为LSTM设置return_state标志?
浏览 0
提问于2019-05-08
得票数 0
回答已采纳
1
回答
如何反转PyTorch嵌入?
deep-learning
、
pytorch
、
autoencoder
我
在
PyTorch中有一个多任务编码器/
解码器
模型
,
在
输入端有一个(可
训练
的) torch.nn.Embedding嵌入层。
在
一个特定的任务
中
,我希望预先
训练
模型
自监督(以重新构造屏蔽输入数据),并将其用于
推理
(以填补数据
中
的空白)。 我想对于
训练
时间,我可以用输入嵌入
和
输出嵌入
之间
的距离来衡量损失。
浏览 16
提问于2020-10-25
得票数 6
回答已采纳
1
回答
为
什么
自动编码器的编码器部分不需要安装就能工作?
python
、
keras
、
autoencoder
the *test* setdecoded_imgs = decoder.predict(encoded_imgs)
在
该示例
中
,只有
模型
autoencoder已经编译
和
安装,而encoder没有。我很困惑,为
什么
编码器可以直接预测新数据而不进行任何编译
和
拟合?
浏览 3
提问于2022-01-25
得票数 1
1
回答
Tensorflow:注意力
解码器
tensorflow
、
neural-network
、
deep-learning
在
TensorFlow1.0
中
,
seq2seq
API发生了很大的变化,并且不再与以前的
seq2seq
示例兼容。特别是,我发现注意力
解码器
的构建相当具有挑战性:旧的attention_decoder函数已被移除,取而代之的是,新的API期望用户
在
训练
和
预测期间为dynamic_rnn_decoder提供几个不同的注意力函数有没有人知道如何构建注意力
解码器
,只提供输入
和
最终的编码器状态?
浏览 3
提问于2017-02-20
得票数 0
1
回答
将
seq2seq
NLP
模型
转换为ONNX格式是否会对其性能产生负面影响?
python
、
machine-learning
、
nlp
、
huggingface-transformers
、
onnx
我正在考虑将ml
模型
转换为ONNX格式,以便利用它的速度增长(ONNX )。然而,我并不真正理解与旧
模型
相比,新
模型
中发生了
什么
根本性的变化。而且,我也不知道是否有
什么
缺点。
浏览 3
提问于2021-02-13
得票数 2
回答已采纳
1
回答
Transformer Decoder只使用
什么
内存?
python
、
pytorch
、
decoder
、
transformer
、
gpt-2
我读了很多关于转换器
和
自我注意的文章,看到BERT
和
GPT-2都是一个较新的版本,只使用了编码器变压器(BERT)和
解码器
变压器(GPT-2)。我一直试图为自己构建一个
解码器
模型
,用于下一个序列预测,但被一件事搞糊涂了。我使用的是PyTorch,我先看了
Seq2Seq
tutorial,然后又研究了由Transformer Decoder Layers组成的Transformer Decoder Block。
在
文档
中
,他们说内存是编码块的最后一层,这对
浏览 19
提问于2020-12-17
得票数 1
1
回答
Tensorflow sequence2sequence
模型
填充
tensorflow
在
seq2seq
模型
中
,使用垫子使桶
中
的所有序列具有相同的长度。除此之外,似乎没有对垫子进行特殊处理: 编码器对填充物进行编码,以及基本
解码器
w/o注意解码使用最后一种编码--编码
解码器
的填充--注意填充输入的隐藏状态--如果能澄清这一点将是非常有帮助的:实际上,这些填充仅仅是一个特殊的id/嵌入,而当前的
seq2seq
实现对待它们就像对待其他嵌入一样?所以
在
填充之后,对填充没有
什么
特别的处理,我
浏览 1
提问于2016-02-22
得票数 1
1
回答
Seq2Seq
/ NLP/ target :生成目标句子后,最后一个
解码器
隐藏状态是否带有任何剩余意义?
machine-learning
、
nlp
、
artificial-intelligence
、
recurrent-neural-network
、
machine-translation
假设我们
在
并行语料库上
训练
编
解码器
Seq2Seq
En-Fr翻译系统,从预先
训练
的Eng
和
Fr字向量开始。该系统可以使用任何形式的句子嵌入(变形金刚,LSTM等)。然后,
Seq2Seq
翻译系统的工作是学习从英字向量构建英句表示,学习从法语单词向量构建法语句子表示,并通过编
解码器
的链接,
在
相同的空间中学习这两个句子表示。我的问题是:
在
输出(EOS)之后,是否有对最后一个
解码器
隐藏状态的解释?还有<em
浏览 6
提问于2020-01-24
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
AI技术革命:图解Transformer架构如何提升机器写作能力
seq2seq模型实例:用Keras实现机器翻译
从各种注意力机制窥探深度学习在NLP中的神威
7.5亿美元做代码转换?一个Facebook TransCoder AI就够了!
从数据表到图表分析,这个实用的图表推荐框架令你如虎添翼
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券