腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(4641)
视频
沙龙
1
回答
如
何在
Keras
中
通过
通用
句子
编码
使用
LSTM
python
、
tensorflow
、
machine-learning
、
keras
、
nlp
我试图
通过
从
通用
句子
编码
器获取
编码
来训练模型,并
使用
LSTM
对其进行训练。num_sentences,), dtype=tf.string)
lstm
=
LSTM
(128, return_sequences=False)(embedding) dense = Dense(256, ac
浏览 19
提问于2021-07-21
得票数 0
1
回答
使用
LSTM
进行情感分析的
Keras
多类分类模型-如何改进我的模型?
python
、
tensorflow
、
keras
、
sentiment-analysis
所以我想
通过
keras
预测一个产品在亚马逊上的星级数,我见过其他的方法,但我
使用
了
通用
的
句子
编码
器和one-hot
编码
(我遵循了Youtube的教程来嵌入评论)。现在不
使用
LSTM
层,而是
使用
以下层: `model.add(
keras
.layers.Dense(units=256,input_shape=(X_train.shape[1], ),activation但是,当我将我的X_train和X
浏览 0
提问于2020-07-23
得票数 0
1
回答
用
LSTM
嵌入
句子
来分类
句子
是不起作用的
keras
、
tensorflow
、
lstm
、
word-embeddings
、
text-classification
我试图建立
LSTM
神经网络来对
句子
进行分类。我见过许多例子,其中
句子
被转换成文字向量
使用
手套,word2Vec等,这里是一个它的例子。这个解决方案是可行的,在类似的行上,我编写了下面的代码,它
使用
通用
句子
编码
器生成整个
句子
的嵌入,并
使用
LSTM
对
句子
进行分类,但是即使在200年以后,它也不能工作--模型不收敛。请找到下面的代码imp
浏览 0
提问于2021-03-16
得票数 1
回答已采纳
1
回答
用
LSTM
对
通用
语句
编码
器进行微调
python
、
tensorflow
、
keras
、
lstm
label_A...我想
使用
通用
语句
编码
器(v4)来获得该字符串的嵌入(将是
句子
),然后将其输入
LSTM
,对该序列进行预测。K module_url = "..inputs = tf.
ker
浏览 2
提问于2021-06-23
得票数 1
回答已采纳
2
回答
当输入的大小发生变化时,
Keras
LSTM
模型对同一输入给出了不同的预测?
python
、
machine-learning
、
keras
、
nlp
、
lstm
我正在
使用
Keras
构建一个用于文本分类的
LSTM
,并尝试
使用
不同的输入
句子
来了解发生了什么,但我得到了奇怪的输出。例如:
句子
1=“周二,51岁的玛丽·巴拉女士完成了一段非凡的个人冒险之旅,她被任命为
通用
汽车的下一任首席执行官,也是第一位登上大型汽车公司最高职位的女性。”当
句子
2是输入数组
中
的唯一元素时,该模型预测类"objective“(0),输出0.4242。它预测
句子
1的“主观”(1),输出0.90
浏览 0
提问于2019-03-06
得票数 1
2
回答
keras
LSTM
获得隐藏状态(将发送序列转换为文档上下文向量)
python
、
keras
、
lstm
、
embedding
、
bert-language-model
我试图
通过
LSTM
使用
keras
从语句向量创建文档上下文向量(因此每个文档都包含一个
句子
向量序列)。我的目标是
使用
keras
复制以下博客文章: 我有一个(玩具-)张量,看起来是这样的:X = np.array(features).reshape(5, 200, 768) So 5文档,每个文档有200个
句子
向量序列,每个
句子
向量有768个特征。因此,为了从
句子
向量
中
获得嵌入,我将文档
编码</
浏览 0
提问于2019-12-27
得票数 2
回答已采纳
1
回答
访问
lstm
节点中的内部忽略门值
python
、
deep-learning
、
keras
、
lstm
我目前已经
使用
Keras
创建了一个
LSTM
网络,并且必须获取该网络的每个节点的内部忘记门值。每次调用predict()函数时,我都必须获取忘记门/值。这样做是可能的吗?
浏览 1
提问于2018-01-12
得票数 5
1
回答
你能让
LSTM
手动忘记上下文吗?
machine-learning
、
lstm
、
recurrent-neural-network
我是机器学习的新手,我想知道是否有可能手动清空
LSTM
的短期记忆。比方说,我想用“Jack and Jill up the the”这句话来训练
LSTM
,但是我决定不结束这句话。
浏览 8
提问于2019-03-18
得票数 1
回答已采纳
1
回答
LSTM
自动
编码
器的可变长度输入-
Keras
python
、
tensorflow
、
keras
、
lstm
、
autoencoder
我尝试在
Keras
中
使用
带有
LSTM
层的自动
编码
器模型来检测文本异常值。我已经将每个
句子
编码
成一个数字序列,每个数字代表一个字母。到目前为止,我已经训练了一个具有固定长度输入的模型,
通过
向4000个序列
中
的每个序列填充零,直到maxlength = 40,从而
使用
4000,40,1形状的阵列(batch_size,时间步长,特征)现在我想知道如何
使用
这样的自动
编码
器模型,而不是将零填充到每个序列(<
浏览 17
提问于2019-09-20
得票数 2
回答已采纳
1
回答
Keras
-低精度的
LSTM
层,但没有
LSTM
的精度是好的。
python
、
machine-learning
、
keras
、
deep-learning
、
lstm
我正在
使用
IMDB数据集在
Keras
中
训练一个模型。对于具有
LSTM
层的模型,精度约为50%: model.add(Embedding(max_features, 32)) model.add(
LSTM
(32, return_sequences=True)) model.add然而,如果我不<
浏览 0
提问于2018-11-18
得票数 1
回答已采纳
1
回答
LSTM
结构比较
python
、
keras
、
deep-learning
、
lstm
、
recommendation-engine
我正试着根据这张照片建立一个
LSTM
模型。(sequence_
lstm
_cells) #????????????n_neurons = 100result = Dense(1, activation='softmax', name = "Recommendation")(
lstm
_cell)
LSTM
_MODEL = Model([an
浏览 0
提问于2018-08-18
得票数 1
回答已采纳
1
回答
如何实现
LSTM
层之间的跳过连接结构
tensorflow
、
machine-learning
、
keras
、
deep-learning
、
lstm
最近我学习了ResNet的跳转连接,我发现这种网络结构在训练过程中会有很大的改进,它也适用于卷积网络,
如
U-net。但是,我不知道如何用
LSTM
自动
编码
网络实现类似的结构。我正在
使用
keras
的方法来实现,但是我不断地得到错误。from
keras
.layers import
LSTM
from
keras
.layers import RepeatVector frommo
浏览 14
提问于2020-03-20
得票数 3
回答已采纳
1
回答
Keras
seq2seq填充
keras
、
padding
、
chatbot
、
seq2seq
我会问你,如
何在
val_acc计数时忽略聊天机器人响应
中
的PAD符号。我
使用
Keras
,
编码
器-解码器模型(),并
使用
教师强制encoder_inputs = Input(shape=(sentenceLength,), name="Encoder_inputdecoder_outputs = decoder_dense(decoder_outputs) model = Model([encoder_inputs, decoder_inputs], decod
浏览 2
提问于2018-05-12
得票数 1
1
回答
NLP
LSTM
输入基本疑问
machine-learning
、
deep-learning
、
nlp
、
lstm
、
rnn
对于将文本转换为数字并提供给
LSTM
,我有一个基本的疑问。我知道不同的方法,
如
OneHot、CountVectorizer、TfIDF、Word2vec等。我怀疑如果我们
使用
的是Vectoriser或Tfidf伯爵,那么在
LSTM
中
,我们必须遍历每个
句子
的整个单词词汇表,因为这就是TFIDF和计数向量词
编码
句子
的方式。我说的对吗?我的第二个疑问是,如果我们
使用
TFIDF或COuntVectorizer,每个单词将有不同的价值,因为它的
浏览 0
提问于2022-04-08
得票数 1
1
回答
如何选择
LSTM
Keras
参数?
python
、
time-series
、
deep-learning
、
keras
、
lstm
我在输入中有多个时间序列,我想正确地构建一个
LSTM
模型。model.add(
keras
.layers.
LSTM
(hidden_nodes, input_shape=(window, num_features), consume_less="mem"))model.add(
keras
.layers.Dense(num_features, activation='sigmoid')) opt
浏览 3
提问于2017-07-24
得票数 10
回答已采纳
2
回答
Keras
LSTM
使用
可变长度序列预测下一个单词
keras
、
deep-learning
、
sequence
、
lstm
我还读到了关于
使用
batch_size = 1的文章。在这种情况下,train_X和train_Y应该是什么?如果我只
使用
一个很长序列的最后一个令牌作为目标,就像我丢弃了其中的所有子序列(即从0->1,0->2……)。0->N-1)。在输入
LSTM
之前,我应该手动创建所有这些子序列吗?
浏览 0
提问于2018-05-25
得票数 2
2
回答
使用
Keras
Tokenizer生成n元语法
nlp
、
keras
、
tokenize
、
text-processing
、
n-gram
在
Keras
中
可以
使用
n-gram吗?tokenizer = Tokenizer(lower=True, split=' ')X_train_tokenized = tokenizer.texts_t
浏览 3
提问于2017-09-12
得票数 10
1
回答
期望看到1个数组,但得到了以下100个数组的列表
python
、
tensorflow
、
keras
、
neural-network
、
lstm
我尝试
使用
神经网络创建字符级机器学习翻译。我对文本做了预处理。input_one_hot_encoded_list包含输入单热
编码
句子
,output_one_hot_encoded_list包含另一种语言的单热
编码
句子
,这是我想要实现的。在这个例子
中
,我的字典有55个字符,我有100个
句子
,所以两个数组都由100个列表组成,这些列表包含50个列表(最长的
句子
有50个字符),其中包含55个整数(一个热
编码
,每个列表包含54个0和1)。b
浏览 24
提问于2019-01-06
得票数 0
2
回答
损失的大幅度增加怎么会导致准确性的提高?
machine-learning
、
accuracy
我正在试验NLP,目前,我正试图提出一个翻译模式,将英语
句子
转换成法语
句子
。我正在
使用
这个数据集(并不是说它是相关的): https://github.com/udacity/deep-learning/raw/master/language-translation/data它由137 K以上的
句子
组成。我的模型是一个
编码
器-译码器
LSTM
,注意在
Keras
中
实现.下面是我
浏览 0
提问于2019-10-01
得票数 0
1
回答
从
通用
语句
编码
器输出生成
LSTM
输入
tensorflow
、
keras
、
deep-learning
、
lstm
、
embedding
我正在研究一个
使用
LSTM
和从
通用
句子
编码
器获得的嵌入的多类分类问题。EMBED_SIZE = 512
浏览 0
提问于2019-05-29
得票数 4
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
seq2seq模型实例:用Keras实现机器翻译
DanceNet:帮你生成会跳舞的小姐姐
训练一个能像人一样说话的神经网络模型,具体需要哪些步骤?
基于keras的文本分类实践基于keras的文本分类实践
文本嵌入的经典模型与最新进展
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券