我想在Spacy中使用德语的lemmatizer,但我对结果感到非常惊讶: import spacy
[token.lemma我不确定我能不能用它: vielen dank für deinen sehr guten tweet 变成了 viel danken für mein sehr gut tweet 这显然改变了句子的意思这是意料之中的吗?我是不是错过了一个能让词汇化器
如何使用空格管道加速文本集的词法转换?目前我是这样使用的,df['text'].apply(lambda x: len(nlp(x).ents)) # returnsnumber of named entities
如何使用带有batch_size、线程等的nlp.pipe提取命名实体的数量。spacy_n