腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(8660)
视频
沙龙
1
回答
gensim
Word2vec
迁移学习(来自非
gensim
模型
)
python
、
word2vec
、
gensim
我有一组用神经网络训练
的
嵌入
,与
gensim
的
word2vec
无关。 我想使用这些
嵌入
作为
gensim
.Word2vec
中
的
初始权重。现在我看到
的
是,我可以model.load(SOME_MODEL),然后继续训练,但它需要一个
gensim
模型
作为输入。此外,reset_from()似乎只接受其他
gensim
模型
。但是在我
的
例子
浏览 8
提问于2017-12-24
得票数 1
1
回答
如
何在
gensim
的
word2vec
模型
中
嵌入
用户名
python
、
gensim
、
word2vec
我想根据他们
的
文章来识别相似的用户。我觉得
word2vec
更适合解决这样
的
问题。但是,由于我也想在
模型
中
嵌入
用户名
,所以我不确定该如何做。我在互联网上找到
的
示例只使用了单词(参见示例代码)。import
gensim
# train <
浏览 8
提问于2020-04-21
得票数 0
回答已采纳
1
回答
如何计算
Gensim
Word2Vec
模型
中
的
嵌入
词数
word2vec
、
word-embeddings
、
gensim
我正在尝试使用
Gensim
库创建Pub中央语料库
的
Word2Vec
模型
,并希望将单词
嵌入
的
总数限制在10亿左右。我到处搜索,无法找到:( a)如
何在
保存
的
模型
中计算单词
嵌入
的
总数;( b)如
何在
训练
模型
时限制
嵌入
的
总数(一旦达到10亿,然后停止)。 请原谅我那些愚蠢
的
问题。
浏览 0
提问于2018-08-18
得票数 2
1
回答
Gensim
word2vec
模型
是否与Mikolov
的
标准
模型
相同?
python
、
nlp
、
gensim
、
word2vec
我正在写一篇论文来比较我们
的
表现。在报纸上,尤瑟尔说 我想知道预先训练过
的
word2vec
Gensim
模型
是否与官方 (googlenews-vectors-neative300.bin.gz文件)上
的
预训练
嵌入
相同。我
的
怀疑来源于
Gensim
文档
中
的
这一行(在
Word2Ve
浏览 3
提问于2020-04-19
得票数 0
回答已采纳
1
回答
gensim
中
的
自定义字
嵌入
nlp
、
gensim
、
word2vec
我有一个词
嵌入
矩阵(例如M),得到
的
是V阶,其中V是词汇表
的
大小,N是每个字向量
的
大小。我希望
gensim
的
word2vec
模型
在训练过程中用M初始化它
的
词
嵌入
矩阵。我可以使用
gensim
.models.keyedvectors.Word2VecKeyedVectors.load_word2vec_format(model_file)以
word2vec
格式加载M,但我不知道如何将M
浏览 16
提问于2022-05-04
得票数 0
1
回答
如何检查单词
嵌入
的
性能
python
、
word2vec
、
word-embedding
我已经使用了
gensim
Word2Vec
模型
,并在我
的
文档列表
中
应用了它。好了,
嵌入
这个词正在被创造出来。我想知道
Word2Vec
在我
的
文档列表
中
是否执行得很好。有什么指标可以衡量这一点吗?我如何理解
Word2Vec
在我
的
文档语料库上是否真的工作得很好,或者我应该尝试一些不同
的
嵌入
?下面是我在
gensim
中使用
的
代码。impo
浏览 9
提问于2019-07-11
得票数 0
回答已采纳
1
回答
在TensorFlow
嵌入
投影仪上找不到
Gensim
上
的
Word2Vec
word?
python-3.x
、
deep-learning
、
nlp
、
word2vec
、
word-embedding
我最近开始试验预训练
的
单词
嵌入
,以增强我
的
LSTM
模型
在NLP任务上
的
性能。在这种情况下,我查看了谷歌
的
Word2Vec
。,并使用python
的
gensim
包查询
嵌入
,使用了以下代码。/data/
word2vec
/GoogleNews-vectors-negative300.bin", binary=True) print(model["bo
浏览 26
提问于2019-06-04
得票数 0
1
回答
如
何在
Tensorflow中使用预训练
的
Word2Vec
模型
python
、
tensorflow
、
gensim
、
word2vec
、
word-embedding
我有一个在
Gensim
中
训练
的
Word2Vec
模型
。如
何在
Word Embeddings
的
Tensorflow中使用它。我不想在Tensorflow
中
从头开始训练
嵌入
。
浏览 4
提问于2017-03-28
得票数 8
4
回答
请安装C编译器并重新安装
gensim
以进行快速培训。”
python-3.x
、
jupyter-notebook
、
anaconda
、
gensim
、
word2vec
我使用基于
gensim
word2vec
模型
的
库
word2vec
在
嵌入
空间中对节点进行编码,但是当我想适应
word2vec
对象时,我会收到以下警告: 有谁能帮我解决这个
浏览 0
提问于2019-05-03
得票数 5
1
回答
将经过训练
的
gensim
word2vec
模型
保存为tensorflow SavedModel
tensorflow
、
gensim
、
word2vec
我们是否可以使用tf 2.0 tf.saved_model.save将经过训练
的
Gensim
Word2Vec
模型
保存为已保存
的
模型
?换句话说,我如何将经过训练
的
嵌入
向量保存为保存
的
模型
签名,以便与tensorflow 2.0一起使用。以下步骤通常是不正确
的
: mod
浏览 0
提问于2020-05-06
得票数 0
1
回答
Word2Vec
与
Gensim
参数等价
python
、
nlp
、
neural-network
、
gensim
、
word2vec
Gensim
是
Word2Vec
的
一个优化
的
python端口(参见)我将用
gensim
重新运行
模型
培训,因为他们
的
模型
中有一些噪音标记。因此,我想找出
word2vec
在
gensim
中
的
一些等价参数是什么 当我训练一个<
浏览 2
提问于2015-04-29
得票数 3
回答已采纳
1
回答
使用BERT通过word
嵌入
生成类似的单词或同义词
python
、
nlp
、
gensim
、
word2vec
、
bert-language-model
由于我们都知道BERT
模型
用于字
嵌入
的
能力,它可能比
word2vec
和其他任何
模型
都要好。 我希望在BERT单词
嵌入
上创建一个
模型
,以生成同义词或类似的单词。就像我们在
Gensim
Word2Vec
做
的
一样。我想要创建
的
方法,
Gensim
model.most_similar()到伯特字
嵌入
。我对它进行了大量
的
研究,似乎可以做到这一点,但问题是,
浏览 2
提问于2021-07-14
得票数 3
1
回答
如何利用
Gensim
生成
的
预训练
word2vec
模型
与卷积神经网络
nlp
、
convolutional-neural-network
、
word2vec
、
text-classification
我使用
Gensim
框架(https://radimrehurek.com/
gensim
/auto_实例/index.html#文档)生成了一个经过预先培训
的
C0
模型
。在执行完所有文本处理之后,我使用
Gensim
生成了经过预先训练
的
word2Vec
模型
。该
模型
有234个唯一
的
词,每个向量都有300个维数。不过,我有个问题。如何使用生成
的
word
浏览 0
提问于2021-11-15
得票数 2
回答已采纳
1
回答
使用Conv1D
的
Word2vec
解决文本分类混乱问题
python
、
keras
、
conv-neural-network
、
word2vec
、
multiclass-classification
我正在做文本分类,并计划使用
word2vec
单词
嵌入
,并将其传递到Conv1D层进行文本分类。我有一个包含文本和相应标签(情感)
的
。我使用了
gensim
模块,并使用
word2vec
算法生成了词
嵌入
模型
。我使用
的
代码如下:from
gensim
.models import
Word2Vec
from nltk.tokenize import word_tokenize(df_t
浏览 24
提问于2018-03-01
得票数 1
回答已采纳
1
回答
在
gensim
中
,
word2vec
模型
和doc2vec
模型
的
wmdistance是多少?
gensim
我想比较两个字符串之间
的
相似性,我可以用
word2vec
模型
或
gensim
中
的
doc2vec
模型
来计算wmd距离。但我不能理解doc2vec
模型
的
wmd是如何工作
的
。model:', d1) d2 = model2.wmdistance(s1, s2) print# wmd distan
浏览 17
提问于2019-07-18
得票数 1
1
回答
有没有预先训练好
的
Gensim
短语
模型
?
python
、
machine-learning
、
gensim
、
word-embedding
、
phrase
是否存在预训练
的
Gensim
的
Phrases
模型
?如果没有,是否可以使用预训练
的
单词
嵌入
进行逆向工程并创建短语
模型
?我正在尝试将GoogleNews-vectors-negative300.bin与
Gensim
的
Word2Vec
一起使用。首先,我需要将我
的
单词映射到短语
中
,这样我就可以从Google
的
预训练
嵌入
中
查找它们
浏览 18
提问于2020-10-16
得票数 1
回答已采纳
1
回答
word2vec
输出后
的
模型
nlp
、
word2vec
、
word-embeddings
、
gensim
我最初是使用一个包字(2克)
模型
来处理一个分类问题。将2克输出
的
热编码发送到logistic回归或神经网络建立分类
模型
。现在,我正在实验
gensim
word2vec
方法,每个单词现在都是来自
word2vec
的
向量。也就是说,如果我
的
句子有10个单词,它就会变成一个10x30数组(假设
word2vec
嵌入
维数是30)。我不清楚如何像以前那样把这样
的
输出发送给逻辑回归或神经网络
模型
。
浏览 0
提问于2019-09-02
得票数 0
2
回答
项名
的
字
嵌入
(整数,一次热编码)
python
、
nlp
、
word-embeddings
、
word
我正在寻找
的
方法,以获得两个项目名称之间
的
相似性使用整数编码或一热编码。📷
浏览 0
提问于2019-06-20
得票数 1
2
回答
如何使用Google
Word2Vec
获取每个文档
的
向量
python
、
word2vec
、
word-embedding
我正在尝试谷歌
的
word2vec
预培训模式,以获得单词
嵌入
。我能够在我
的
代码中加载
模型
,我可以看到我得到了一个单词
的
300维表示。这是密码-from
gensim
import modelsmodel =
gensim
.models.KeyedVectors.load_word2vec_format
浏览 0
提问于2020-11-02
得票数 1
回答已采纳
1
回答
tsne与
word2vec
的
关系是什么?
nlp
、
gensim
、
word2vec
据我所知,tsne正在减少单词向量
的
维数。两者之间
的
关系是什么?
Word2vec
在里面使用tsne吗?(我使用来自
Word2vec
的
Gensim
)
浏览 7
提问于2017-04-02
得票数 3
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
GPT-3 vs Bert vs GloVe vs Word2vec 文本嵌入技术的性能对比测试
用Python实现词嵌入的数值化:从文本到向量的转换方法解析
用线性规划去计算句子之间的相似度
基于Doc2vec训练句子向量
自然语言处理中的词表征
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券