腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
将
嵌入
层
与
GRU
一起
使用
、
、
、
我有一个
使用
GRU
手动
将
输入创建为3D数组的工作代码(None,10,64)。现在我想在
GRU
之上
使用
keras
嵌入
层
。我的想法是输入一个二维数组(None,10),并
使用
嵌入
层
将
每个样本转换为相应的
嵌入
向量。return_sequences=False))model.add(Dense(64)) model.add(Acti
浏览 22
提问于2019-01-23
得票数 0
回答已采纳
1
回答
Keras构造句子列表的
GRU
模型
、
我
使用
这个
嵌入
层
将
每个单词向量到300维。之后,titles_embed的形状为(?, ?, 40, 300),其中第一个?是批次大小,批次中的每个样本都是一个段落,由第二个?个句子组成。每个句子都有40个单词,最后300是
嵌入
的大小。所以
浏览 22
提问于2020-05-20
得票数 0
1
回答
如何在pytorch上实现堆叠的rnn (层数> 1)?
、
、
pytorch中的
GRU
层
接受一个名为num_layers的参数,您可以在其中堆叠RNN。然而,还不清楚后续的RNN如何确切地
使用
前一
层
的输出。递归层数。例如,设置num_layers=2
将
意味着
将
两个
GRU
堆叠在
一起
以形成堆叠的
GRU
,第二个
GRU
接收第一个
GRU
的输出并计算最终结果。这是否意味着
GRU
第一
层
的最后一个单元的输出将作为输入输入到下一
浏览 6
提问于2021-09-23
得票数 2
1
回答
用RNN学习词
嵌入
、
、
学习单词
嵌入
的常用方法是基于弓模型和跳格模型. 是否有可能训练一个基于RNN的体系结构,比如
GRU
或LSTM,从一个大语料库中随机的句子来学习单词
嵌入
?
浏览 0
提问于2018-08-17
得票数 3
回答已采纳
1
回答
在keras或tensorflow中定义多个不同的lstm
、
、
、
我目前正在
使用
lstm和rnn一段时间。我在tensorflow和keras中都尝试过。然而,有些事情让我真的很困惑。use the hidden states 然而,我们似乎
使用
了多个有没有办法让我们
使用
不同的rnn来包装不同的lstm? 同样的问题也适用于keras,当我
使用
for循环来定义10个
GRU
时,打印输出显示似乎只有两个不同的
GRU
,
浏览 5
提问于2018-08-18
得票数 0
回答已采纳
1
回答
输入0
与
层
gru
_13不兼容:预期的ndim=3,找到ndim=2
我想将3CNN
与
3
GRU
层
结合
使用
。layer_c], outputs=[layer_f])但是当我试图融入我的数据时,它会产生一个错误: 输入0
与
层
gru
_14不兼容:预期的ndim=3,找到ndim=2。
浏览 1
提问于2018-04-03
得票数 2
回答已采纳
1
回答
PyTorch
GRU
返回中隐藏状态
层
的顺序
、
、
、
、
batch,num_directions * hidden_size) 对于具有多个
层
的
GRU
,我想知道如何获取最后一个
层
的隐藏状态,是h_n[0]还是h_n[-1]?
浏览 0
提问于2019-01-17
得票数 8
1
回答
TimeDistributed致密
层
在
GRU
(return_sequences=True)
层
后引起的尺寸误差
、
、
目前,我正在尝试
使用
Tensorflow上的Keras对timeseries数据进行分类。我能够运行一个非常简单的模型,但经过一些反馈之后,建议我在一行中
使用
多个
层
,并在密集
层
周围添加TimeDistributed包装器。softmax')))当尝试
将
模型
浏览 0
提问于2019-05-14
得票数 1
回答已采纳
1
回答
在机器学习分类模型中,如何
将
数据时间序列和非时间序列数据相结合?
📷 我有一个由时间序列和整数数据组成的数据集(IoT可穿戴数据集);我的任务是
使用
该数据集进行分类。虽然当前sktime中的库接受多变量时间序列数据作为输入,但我认为它们不接受整数数据。
浏览 0
提问于2021-05-06
得票数 0
1
回答
keras
GRU
层
中的返回状态和返回序列有什么不同?
、
、
、
、
我似乎无法理解keras
GRU
层
中返回状态和返回序列之间的区别。 由于
GRU
单元没有单元状态(它等于输出),那么返回状态
与
keras
GRU
层
中的返回序列有什么不同呢?更具体地说,我构建了一个具有一个编码
层
和一个解码
层
的编码器-解码器LSTM模型。编码
层
返回其状态(return_state = TRUE),并且解码器
层
使用
这些状态作为初始状态(initial_state = encoder_sta
浏览 34
提问于2019-02-26
得票数 8
1
回答
支持向量机
与
GRU
模型的连接
、
我正在尝试
使用
numpy
将
GRU
与
SVM连接起来。我目前
使用
从
GRU
计算的隐藏
层
作为SVM的输入,并计算出真实的结果,它确实工作得很好。我可以
使用
tensorflow 2.0来做到这一点吗?
浏览 9
提问于2020-09-23
得票数 0
1
回答
RNN分类器,如何显示权重来理解神经网络是如何做出决策的
、
、
我正在
使用
RNN构建一个简单的分类器,
将
一段单词分类到不同的目录中。它有一个
嵌入
层
,然后是RNN,然后是一个密集
层
,如下所示。layer_embedding', weights=embedding_matrix],trainable=True)) model.add(Bidirectional(
GRU</em
浏览 1
提问于2018-06-11
得票数 2
2
回答
基于Keras的ELMo
嵌入
层
、
、
、
、
我一直在我的架构中
使用
Keras默认
嵌入
层
和word
嵌入
。name="lstm") right_output = shared_lstm(encoded_right) 我想用ELMo
嵌入
替换
嵌入
层
所以我
使用
了一个自定义的
嵌入
层
-可以在这个repo - https://github.com/
浏览 11
提问于2019-02-12
得票数 1
回答已采纳
1
回答
pytorch中的torch.nn.
gru
函数的输入是什么?
、
、
我正在
使用
gru
函数来实现RNN。这个RNN (
GRU
)在一些CNN
层
之后
使用
。有人能告诉我这里
GRU
函数的输入是什么吗?特别是,隐藏的大小是固定的吗?self.
gru
= torch.nn.
GRU
( hidden_size=128,num_layers=1, bidirect
浏览 96
提问于2019-11-28
得票数 2
回答已采纳
2
回答
如何在keras中绑定单词
嵌入
和softmax权重?
、
、
、
、
在NLP和视觉语言问题中,
将
初始单词
嵌入
层
的权重
与
输出softmax的权重绑定在
一起
,这是一种常见的神经网络架构。通常,这会提高句子生成的质量。(参见示例) 在Keras中,通常
使用
embedding类
嵌入
单词
嵌入
层
,但是似乎没有简单的方法来将该
层
的权重绑定到输出softmax。有没有人碰巧知道这是如何实现的?
浏览 1
提问于2017-11-03
得票数 8
1
回答
具有2x2输入的双向
GRU
、
、
、
我正在构建一个网络,它将字符串分解成单词,
将
单词分解为字符,
将
每个字符
嵌入
,然后通过
将
字符聚合成单词和字符串来计算该字符串的向量表示形式。聚集是在双向
gru
层
中进行的。padding symbol ) -> 接下来,我有一个
嵌入
层
,它将每个字符转换成一个长度的
嵌入
向量,比如说6。然
浏览 6
提问于2021-10-07
得票数 0
回答已采纳
1
回答
在Python中
与
FeedForward
层
一起
使用
GRU
、
、
、
、
我试图复制本文中的代码,这里用于多标号问题(11个类),它
使用
2-
GRU
我的代码:我不确定两个前向
层
是否正确。在论文中,它的FF1:1024单位,和FF2: 512个单位。) target_
gru
=Bidirectional(
GRU
(units=200, r
浏览 0
提问于2020-01-31
得票数 1
回答已采纳
1
回答
Keras
GRU
/LSTM
层
输入尺寸误差
、
、
、
、
我对深度学习有点陌生,我一直在尝试创建一个简单的情感分析器,
使用
深度学习方法进行自然语言处理,并
使用
路透社数据集。keras.preprocessing.text import Tokenizerfrom keras.layers import Dense, Dropout,
GRU
np_utils.to_categorical(y_train, 50) model = Se
浏览 1
提问于2018-08-14
得票数 1
回答已采纳
1
回答
keras:未启用急切执行时,张量对象不可迭代
、
、
、
、
=
GRU
(int(n_units/2), return_sequences) l2_decoder_
gru
=
GRU
(n_units,l4_decoder_
gru
浏览 18
提问于2018-09-08
得票数 1
回答已采纳
1
回答
TF-Hub Elmo
使用
哪个词
嵌入
来连接公路
层
中的字符
、
、
我知道Elmo
使用
CNN而不是字符
嵌入
字符。然而,我不明白在高速公路网络中,字符
嵌入
是如何
与
单词
嵌入
连接在
一起
的。在Elmo论文中,大多数评估
将
Glove用于单词
嵌入
和CNN字符
嵌入
一起
,这是有意义的,因为他们提到了单词
嵌入
。但是对于像TF-Hub中的模型这样的预训练模型,我们在公路
层
中
使用
哪些词
嵌入
来连接字符
嵌入
? 如果可以的
浏览 16
提问于2020-09-02
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何将PowerApps嵌入到Power BI中使用
深度学习在新闻情感分析中的应用
使用MongoDB构建AI:Jina AI将突破性开源嵌入模型变为现实
Spring Boot与Kotlin使用Spring-data-jpa简化数据访问层
嵌入式开发:借助物联网网关将企业与嵌入式设备连接起来
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券