quick brown fox jumps over the lazy dog.']然而,他们对非英语句子转换器的选择似乎是有限的我想知道是否有可能并且可能更准确地应用拥抱面孔库中的BERT模型,该模型专门针对瑞典语文本或任何其他非英语语言进行训练,用于提取句子嵌入?最后,所有模型都使用各自的语言对相同的任务MLM和NSP进行预训练,以理解该语言,对吧?最终目标是在句子嵌入上使用
我正在尝试使用spaCy来训练一个NER模型,以识别位置、(人)名称和组织。我试图理解spaCy是如何在文本中识别实体的,但我一直未能找到答案。从 on Github和上可以看出,spaCy使用文本中的许多特性,如POS标记、前缀、后缀以及文本中的其他字符和基于单词的特性来训练平均感知器。但是,代码中没有任何地方显示spaCy使用GLoVe嵌入(尽管句子/文档中的每个单词似乎都有它们,如果它们存在于GLoVe语料库中)。
我