腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(6045)
视频
沙龙
1
回答
具有
嵌入
层
的
LSTM
RNN
的
目标
向量
维
数
keras
、
lstm
、
recurrent-neural-network
我正在尝试构建一个用于文本生成
的
LSTM
模型。模型
的
嵌入
层
的
好处:减少输入数组
的
内存大小,将相似的变量映射到潜在空间中
的
封闭区域,等等。这允许我直接将类别数组传递给我
的
LSTM
,而不需要一个热编码。考虑以下
具有
vocab_size=9
的
分类数据集: X= [ [1,2,3], [4,5,6], [7,8,9] ] 我对
嵌入
层
的
输
浏览 13
提问于2019-02-15
得票数 0
1
回答
用torchnlp进行文本分类
python
、
neural-network
、
nlp
、
pytorch
、
text-classification
我
的
目的是建立这样一个网络: 我在输入句子
的
维
数上遇到了一个主要问题(每个单词都是
向量
),但最重要
的
是注
浏览 6
提问于2019-12-06
得票数 2
1
回答
如何将三
维
张量传递给tensorflow
RNN
embedding_
rnn
_seq2seq
python
、
tensorflow
、
word2vec
、
recurrent-neural-network
= [tf.placeholder(tf.int32, shape=(None,10), name="inp%i" % t)它有
维
数
, dec_inp, stacked_
lstm
, 错误发生还有一个更复杂
的<
浏览 4
提问于2017-01-12
得票数 2
回答已采纳
1
回答
LSTM
结构比较
python
、
keras
、
deep-learning
、
lstm
、
recommendation-engine
我正试着根据这张照片建立一个
LSTM
模型。我是一个深入学习
的
初学者,特别是
RNN
结构,所以我需要你
的
建议来引导我因此,为了处理70k用户和12k动画
的
数据格式,我
的
dataframe包含:
LSTM
_MODEL.summary() 对于“未来标签”部分,我使用了这样
的
浏览 0
提问于2018-08-18
得票数 1
回答已采纳
1
回答
Keras中
的
LSTM
输入
keras
、
rnn
我对
LSTM
模型中
的
输入
向量
感到困惑,我使用
的
数据是文本数据,例如1000句句子。关于
LSTM
输入
层
,我有两个问题: 1.如果我将这些句子标记成
向量
(我们可以称之为句子
向量
),那么Keras中是否有一种方法可以生成给定文档
的
句子
向量
?应该是字级
的
,对吧?2.第二个问题是
LSTM
中
的
三
维
张量类型。我有1000个句子(样本),如果我想在每一时间步骤读
浏览 0
提问于2016-10-08
得票数 2
回答已采纳
1
回答
通用变量名称缩写为Py火炬或Tensorflow?
tensorflow
、
pytorch
我已经在示例中看到var名称,比如nhid (num_input)、nhid (num_hidden)、emsize (
嵌入
大小)。其他一些常见
的
缩略语是什么?它们
的
意思/背景是什么?
浏览 1
提问于2019-04-23
得票数 0
回答已采纳
1
回答
为什么在堆叠
的
RNN
中返回序列?
keras
、
sequence
、
lstm
、
rnn
在堆叠
RNN
时,必须在Keras中将return_sequences参数设置为True。比如在喀拉斯,
lstm
2 =
LSTM
(1)(
lstm
1) 对于每个堆叠
的
RNN
层
来说,保持输入空间
的
维
数
是有点直观
的
浏览 3
提问于2017-12-06
得票数 2
4
回答
在Keras中,当我用N‘with创建一个有状态
的
` `
LSTM
`’
层
时,我到底在配置什么?
tensorflow
、
neural-network
、
keras
、
lstm
普通Dense
层
中
的
第一个参数也是units,是该
层
中神经元/节点
的
数量。然而,一个标准
的
LSTM
单元如下所示:(这是“”
的
改进型) 在Keras中,当我创建像这个
LSTM
(units=N, ...)这样
的
LSTM
对象时,我实际上是否创建了这些
LSTM
单元
的
N?或者是
LSTM
单元内“神经网络”
层
的
大小,即公
浏览 11
提问于2017-05-30
得票数 80
回答已采纳
2
回答
LSTM
seq2seq网络输入- Tensorflow
machine-learning
、
tensorflow
、
recurrent-neural-network
、
lstm
使用Tensorflow seq2seq教程代码,我正在创建一个基于字符
的
聊天机器人。我不使用
嵌入
词。我有一系列
的
字符(字母表和一些标点符号)和特殊
的
符号,如GO,EOS和UNK符号。因为我没有使用word
嵌入
,所以我使用了标准
的
tf.nn.seq2seq.basic_
rnn
_seq2seq() seq2seq模型。然而,我对encoder_inputs和decoder_inputs应该
具有
什么样
的
形状感到困惑。它们应该是一个整数数组
浏览 5
提问于2016-10-23
得票数 0
回答已采纳
1
回答
LSTM
Tensorflow中
的
尺寸误差,如何处理?
python
、
tensorflow
、
lstm
我有一个句子
的
形式:其中: H ∈ l×P H_para = tf.placeholder('int32', shape=[N, P ], name='para')
维</e
浏览 0
提问于2017-02-05
得票数 0
3
回答
堆叠式
LSTM
的
优点?
machine-learning
、
neural-network
、
deep-learning
、
lstm
我想知道在什么情况下堆叠
LSTM
是有利
的
?
浏览 0
提问于2017-08-29
得票数 19
1
回答
从攻击摘要(NLP)中提取恐怖袭击动机
的
监督学习模型
python
、
nlp
、
supervised-learning
每一行都是一次攻击,列如下:攻击地点(long/lat,以及城市/国家)攻击/武器类型此外,我有一个文本列,其中包含了对攻击
的
2这是我想用来训练/预测
的
主要专栏。 表单"is_left_wing“、"is_right_wing”等有几个
目标
列,其值为0、1和-1。这里0表示攻击没有各自
的
动机,1表示它有动机,-1表示它未知。简而言之,我
的
目标
是构建一个模型
浏览 0
提问于2018-05-11
得票数 1
2
回答
嵌入
层
的
Keras自动编码器
keras
、
lstm
、
autoencoder
我试图在Keras中构建一个文本
LSTM
自动编码器。我想使用
嵌入
层
,但我不知道如何实现这一点。代码看起来是这样
的
。trainable=False) encoded =
LSTM
(num_units)(inputs) decoded =
LSTM
(???inputs, decoded) sequence_auto
浏览 0
提问于2017-06-23
得票数 6
回答已采纳
1
回答
如何只获取
LSTM
生成
的
每个隐藏
向量
的
第一个分量?
python
、
tensorflow
我有以下
LSTM
的
实施:
lstm
= tf.nn.
rnn
_cell.LSTMCell(num_units = num_units) num_input(
lstm
, x, dtype=tf.float32) 据我所知,outputs包含由h生成
的
一系列隐藏
向量
。更详细地说,它是一个列表,其中元素对应于时间步骤,每个元素包含一个2D张量,其中轴0对应于批处理索引,而轴1对应隐藏
向量
的<
浏览 1
提问于2019-02-19
得票数 2
回答已采纳
1
回答
如何利用
LSTM
层
的
tensorflow集线器
嵌入
模型?
tensorflow
、
keras
、
lstm
它使用了TF集线器
的
嵌入
模块。我想知道是否可以修改模型以包括
LSTM
层
。以下是我尝试过
的
: name="imdb_reviews",model.add(tf.keras.layers.Bidirectional(tf.keras.lay
浏览 5
提问于2020-06-23
得票数 4
回答已采纳
1
回答
LSTM
网络输入tensorflow
python
、
tensorflow
、
lstm
、
recurrent-neural-network
,xt),每个xi都是d
维
向量
,即xi=(x0i,x1i,.,xdi)。因此我
的
输入X是形状为batch_size,d
的
tensorflow
LSTM
的
输入应该是大小为batchSize,hidden_size。我
的
问题是如何将我
的
时间序列输入到
LSTM
中。我想出
的
一个可能
的
解决方案是,有一个额外
的
权重矩阵,W,大小为d,hidden_size,并用X*W + B输入最小重量矩阵
浏览 1
提问于2016-01-28
得票数 16
回答已采纳
1
回答
对pytorch
RNN
使用OHE查找表
的
正确方法是什么?
python
、
nlp
、
pytorch
、
lstm
我目前正在尝试使用pytorch构建一个
LSTM
RNN
。一个输入
向量
被表示为50个整数
的
数组,对应于最多50个带填充
的
记号序列,其中每个整数对应于我
的
词汇表中
的
一个元素和OHE
向量
中1
的
索引。我希望有一个
嵌入
层
,它只使用一个查找表来对整数进行一次热编码--有点像tensorflow
的
OHE
层
。像这样
的
“某种”工作 <code>A0&
浏览 11
提问于2019-08-24
得票数 1
回答已采纳
11
回答
num_units在tensorflow BasicLSTMCell中是什么?
tensorflow
、
neural-network
、
lstm
、
recurrent-neural-network
在MNIST示例中,我不明白“隐藏
层
”是什么意思。这是假想
层
形成
的
,当你表示一个展开
的
RNN
随着时间
的
推移? 为什么num_units = 128在大多数情况下都是?
浏览 18
提问于2016-06-18
得票数 58
回答已采纳
2
回答
训练中断与ResourceExausted错误
python
、
tensorflow
、
batch-processing
我
的
模型如下,
浏览 3
提问于2017-12-28
得票数 15
回答已采纳
1
回答
用于情感分析
的
LSTM
输入输出
neural-network
、
lstm
、
rnn
、
nlp
、
sentiment-analysis
我正在研究这个
LSTM
网络:https://www.kaggle.com/paoloripamonti/twitter-sentiment-analysismodel.add(embedding_layer)model.add(
LSTM
(100, dropout=0.2, recurrent_dropout=0.2)) m
浏览 0
提问于2019-05-01
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
TextRCNN、TextCNN、RNN…你都掌握了吗?一文总结文本分类必备经典模型(一)
NNLM、RNNLM、LSTM-RNNLM、Bi-lstm、GPT-1…你都掌握了吗?一文总结语音识别必备经典模型(一)
深度学习篇——CNN和RNN结合与对比,实例讲解
基于keras的文本分类实践基于keras的文本分类实践
深度学习文本分类实战报告:CNN,RNN&HAN
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券