根据我在stackoverflow上找到的几篇文章(例如这个Why does word2Vec use cosine similarity?),在我们训练了一个word2vec ( CBOW或Skip-gram)模型之后,计算两个词向量之间的余弦相似度是一种常见的做法。然而,这对我来说似乎有点奇怪,因为该模型实际上是用点积作为相似度分数进行训练的
我正在使用Gensim计算两个单词之间的余弦相似度。glove_model.similarity("united states of america","warm")时,我得到了KeyError: "Key 'united states of america' not present"
如何计算这两个多字标记之间