首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Stanford Word Segmenter问题整理

最近在做一些nlp相关的项目,在涉及到Stanford CoreNLP工具包处理中文分词的时候,发现耗时问题很严重: Item time(s) jieba 0.4 snownlp 7.4 pynlpir...0.8 StanfordCoreNLP 21.5 pyltp 5.3 因为Stanford CoreNLP调用的是这个pipeline,而我们实际用的是切词功能,所以尝试只用它的切词部分功能,但是在做的过程中发现一些问题...,整理如下: 官网给出的方法nltk.tokenize.stanford_segmenter module是这么写的: from nltk.tokenize.stanford_segmenter import...然后度娘的top1的答案给出的解决方案是:` segmenter = StanfordSegmenter(path_to_jar="stanford-segmenter-3.4.1.jar", path_to_sihan_corpora_dict...原因之前作者也说了,据称升级版本后不兼容,各位看看就好"TypeError: expected str, bytes or os.PathLike object, not NoneType" about Stanford

1K30
您找到你想要的搜索结果了吗?
是的
没有找到
领券