今天的话题是分词:Python扩展库jieba和snownlp很好地支持了中文分词,可以使用pip命令进行安装。...jieba.add_word('花纸杯') #增加新词条
>>> list(jieba.cut('花纸杯')) #使用新题库进行分词
['花纸杯']
>>> import snownlp...导入snownlp模块
>>> snownlp.SnowNLP('学而时习之,不亦说乎').words
['学而', '时习', '之', ',', '不亦...', '说乎']
>>> snownlp.SnowNLP(x).words
['分词', '的', '准确度', '直接', '影响', '了', '后续', '文本', '处理', '和', '挖掘'