我正在构建一个聊天机器人,所以我需要使用Word2Vec向量化用户的输入。
我使用的是Google提供的一个有300万字的预训练模型(GoogleNews-vectors negative300)。
因此,我使用Gensim加载模型:
import gensim
model = gensim.models.KeyedVectors.load_word2vec_format('GoogleNews-vectors-negative300.bin', binary=True)
问题是加载模型大约需要2分钟。我不能让用户等那么久。
那么,我可以做些什么来加快加载时间呢?
我考虑将300万个单词及其对应的向量放入一个MongoDB数据库中。这当然会加快速度,但直觉告诉我这不是一个好主意。
https://stackoverflow.com/questions/42986405
复制相似问题