腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如何
从
Keras
取回
单词
嵌入
?
python
、
keras
、
nlp
、
word-embedding
假设你在某个任意任务的过程中创建了自己的自定义
单词
嵌入
,比如文本分类。你
如何
从
Keras
那里得到一个类似于{word: vector}结构的字典?embeddings_layer.get_weights()给出了原始的embeddings...but,不清楚哪个
单词
对应哪个向量元素。
浏览 15
提问于2021-02-23
得票数 1
1
回答
NLP CNN
嵌入
,
从
Twitter文本预测5个值
twitter
、
nlp
、
conv-neural-network
、
sentiment-analysis
、
embedding
我有一堆twitter文本(大约70K),大约有10K个
单词
。有些更少,有些更多。我已经创建了一个
Keras
架构来预测每个Twitter文本的5个值,我已经在这70K上进行了训练。以下是模型: class NeuralNetMulti(Regressor): self.name = '
keras
-sequential它们可能有1000个
单词
,但大多数都在10K左右。y是我提到的具有5个值的数组的数组。它们每个都在0到100之间。
浏览 31
提问于2021-07-26
得票数 0
2
回答
Keras
中lm_1b中的字符字
嵌入
machine-learning
、
nlp
、
keras
、
language-model
、
word-embedding
我想在
Keras
模型中使用一些预先训练过的
单词
嵌入
,这是由Google在中发布的。他们提供了训练新模型的代码,以及
嵌入
。但是,文档中还不清楚
如何
从简单的python函数调用中
从
给定的字符串(word)中检索
嵌入
向量。大部分文档似乎集中在将向量倾倒到一个文件中,整个句子大概是为了情感分析。到目前为止,我已经看到您可以使用以下语法在经过预先训练的
嵌入
中提供信息: embedding_layer = Embedding(number_of_words??它们
浏览 3
提问于2017-05-31
得票数 18
1
回答
如何
结合词性标签特征和关联词向量
从
预先训练好的gensim word2vec中获取
单词
,并将其用于
keras
中的
嵌入
层
python-3.x
、
keras
、
gensim
在
keras
中,我希望对
从
预先训练word2vec中获取的
单词
使用
单词
向量,并将
单词
的词性标记特性编码为一个热向量。在
Keras
中,我认为使用
嵌入
矩阵,所以我想在
Keras
中创建
嵌入
层来实现这一点,这样它就可以用于更多的层(LSTM)。你能详细告诉我怎么做吗?
浏览 25
提问于2019-10-05
得票数 0
2
回答
字向量作为输入
deep-learning
、
keras
、
word-embeddings
、
word2vec
、
sentiment-analysis
我有一个语料库,我想用LSTM和word
嵌入
来进行情感分析。我已经使用Word2Vec将文档中的
单词
转换为
单词
向量。我的问题是
如何
将这些字向量输入到
Keras
?我不想使用
Keras
提供的
嵌入
。
浏览 0
提问于2016-09-07
得票数 1
回答已采纳
2
回答
如何
从
概念上思考标记化
单词
和
单词
嵌入
之间的关系?
r
、
nlp
、
keras
、
text-analysis
我一直在使用JJ Allaire关于在文本处理的神经网络模型()中使用
单词
嵌入
的指南。我搞不懂该模型
如何
将标记化的
单词
序列(x_train)与使用整个数据集(而不仅仅是训练数据)定义的
单词
嵌入
联系起来。有没有一种方法可以概念化
单词
标记
如何
映射到
单词
嵌入
?否则,像“king”这样的
单词
如何
映射到
单词
embedding (例如,使用Glove获得)。batch_siz
浏览 6
提问于2018-05-05
得票数 3
1
回答
从
预先训练的word2vec中查找句子相似点的
Keras
python
、
tensorflow
、
keras
我在想,如果有更多的选择,比如使用像
keras
和tensorflow这样的深度学习,
从
经过预先训练的word2vec中找到相似的句子。所以,我想知道是否还有其他的选择,可以使用预先训练的word2vec在
keras
,并得到句子的相似性。有没有办法。我愿意听取任何建议和建议。
浏览 0
提问于2019-09-21
得票数 0
回答已采纳
3
回答
在
单词
嵌入
后输出一个
单词
而不是一个向量?
python
、
nlp
、
rnn
、
word-embeddings
我现在明白了,大多数人在使用任何模型之前都会使用
嵌入
层,这会产生类似于300维向量的东西。但是模型输出的是什么呢?就像编解码模型一样,它的输入是这些向量的序列。那么,解码器的最后一层是什么呢?所以我的核心问题是:输出也是一个300维向量,然后我必须根据最相似的
单词
向量生成
单词
吗?或者它是原始
单词
空间中一个
单词
的索引?在第二种情况下,网络被分类为100000多个类?此外,是否有任何现有的软件包支持这种“反向
嵌入
到word"? 我在网站上没有看到任何类似的问题。如果是的话,请把它标
浏览 0
提问于2016-11-15
得票数 4
回答已采纳
2
回答
如何
训练我自己的自定义词
嵌入
网页?
python
、
tensorflow
、
keras
、
deep-learning
、
nlp
我试着在维基百科上使用预先训练过的快速文本词
嵌入
,但它并没有给我分类任务带来好的结果。可能是因为网站上的文本数据包含了很多技术细节,它不同于维基百科中的文本数据。因此,我想做一些转移学习的词
嵌入
,保持预先训练的快速文本词
嵌入
为基础。
如何
用快速文本预训练
嵌入
和训练初始化自定义词
嵌入
?这种初始化是否真的有助于提供更好的
单词
浏览 2
提问于2019-01-24
得票数 1
1
回答
嵌入
层中的值错误
python
、
neural-network
、
recommender-system
我是新的深入学习,我正在尝试建立一个使用
嵌入
层的图书推荐系统。我用一层书和一层给用户。book_input = Input(shape=(1,)) book_embedding = Embedding(input_dim = n_books+1, output_dim
浏览 0
提问于2019-11-18
得票数 0
回答已采纳
1
回答
如何
利用Gensim生成的预训练word2vec模型与卷积神经网络
nlp
、
convolutional-neural-network
、
word2vec
、
text-classification
如何
使用生成的word2vec
嵌入
向量作为CNN的输入?
浏览 0
提问于2021-11-15
得票数 2
回答已采纳
1
回答
嵌入
/
嵌入
层在深度学习中的应用
deep-learning
、
lstm
、
recurrent-neural-network
、
word-embedding
我正在探索深度学习方法,尤其是LSTM来预测下一个
单词
。假设,我的数据集如下所示:每个数据点包含7个特征(7个不同的
单词
)(这里是A),长度不同。我的问题是
如何
使用
嵌入
层来解决我的问题。实际上,我不太了解
嵌入
(为什么、何时和
如何
工作),我只知道一个热向量不包含太多信息。我想知道
嵌入
是否能提高准确性。(至少对我的情况而言,
嵌入
的使用是否合乎逻辑)
浏览 1
提问于2019-05-28
得票数 1
回答已采纳
1
回答
如何
使数组作为一个字
嵌入
,类似于tf.
keras
.datasets.imdb.get_word_index?
python
、
tensorflow
、
keras
、
embedding
我想做一个名为word_index的
单词
嵌入
,类似于tf.
keras
.datasets.imdb.get_word_index {'fawn': 34701, 'tsukino': 52006, 'nunnery
浏览 4
提问于2021-06-20
得票数 0
回答已采纳
1
回答
keras
嵌入
向量返回1-hot
decode
、
keras
、
embedding
、
one-hot-encoding
我在NLP问题中使用
keras
。当我试图根据之前的
单词
预测下一个
单词
时,出现了一个关于
单词
嵌入
的问题。我已经通过
keras
嵌入
层将一个热门
单词
转换为
单词
向量,如下所示: word_vector = Embedding(input_dim=2000,output_dim=100)(word_one_hot
如何
才能将word_vector恢复为word_one_hot?
浏览 2
提问于2017-04-22
得票数 0
1
回答
3D张量输入到
keras
或tensorflow中的
嵌入
层?
python
、
tensorflow
、
keras
因此,我的输入类似于(样本数量x句子数量x
单词
数量)。然后,我想将其输入到
嵌入
层中,以学习
单词
向量,然后将其相加得到句子向量。这种类型的架构在
keras
中可行吗?还是Tensorflow?
从
文档中可以看出,
Keras
的
嵌入
层只接受输入(nb_samples、sequence_length)。有没有其他可行的工作?
浏览 2
提问于2016-07-26
得票数 1
1
回答
Gensim word2vec与
keras
嵌入
层的差异
keras
、
word2vec
、
word-embeddings
、
gensim
、
embeddings
我在不同的项目中使用了gensim word2vec包和
Keras
Embedding layer。然后我意识到他们似乎在做同样的事情,他们都试图把一个
单词
转换成一个特征向量。 我能正确理解这一点吗?
浏览 0
提问于2019-10-11
得票数 8
回答已采纳
1
回答
两个池层的对比特性
python
、
tensorflow
、
machine-learning
、
keras
、
deep-learning
我把这个送给我的模特:from
keras
.layers.recurrent import LSTMfrom
keras
.models import Sequentialfromfeatures import train,embedding_matrix,words
浏览 0
提问于2018-10-13
得票数 1
1
回答
如何
在
Keras
中只使用
嵌入
层而不使用标签来训练模型
python
、
machine-learning
、
keras
、
word-embedding
我想训练一个
嵌入
层来将
单词
映射到
嵌入
向量。到目前为止,我看到的大多数例子如下:from
keras
.layers import Embedding, Flatten, Dense我只想训练
从
单词
(更准确地说是整数)到
嵌入
向量的映射。但是模型的fit方法要求x_train和y_train (如上面给出的例子)。 我
如何
才能训练一个模型只有一个
嵌入
浏览 0
提问于2018-11-18
得票数 4
回答已采纳
2
回答
在
keras
嵌入
层中是哪种类型的
嵌入
,如word2vec或GloVe,或者其他一些类型
keras
、
tensorflow2.0
浏览 0
提问于2020-05-22
得票数 0
1
回答
RNN语言模型的
Keras
实现中输入和输出层的大小
tensorflow
、
keras
、
neural-network
、
word-embedding
、
language-model
从
理论上讲,我知道输入层应该是一个热向量层,有一个神经元数等于我们词汇的
单词
数,然后是一个
嵌入
层,在
Keras
中,它显然是一个序列模型中的单个
嵌入
层。我还知道,输出层也应该是词汇表的大小,这样每个输出值就可以将1-1映射到每个词汇表
单词
。 但是,在
嵌入
层()的
Keras
文档和本文()中,输入层和输出层的词汇表大小都是任意增加的!Jason解释说,这是由于
Keras
中
嵌入
层的实现,但这并不能解释为什么我们也会在输出层中
浏览 2
提问于2020-05-04
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券