前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Python实现中英文分词

Python实现中英文分词

作者头像
Python小屋屋主
发布2018-04-16 14:46:04
3.6K0
发布2018-04-16 14:46:04
举报
文章被收录于专栏:Python小屋

首先给出昨天文章里最后的小思考题的答案,原文链接为:

Python从序列中选择k个不重复元素

既然选择的是不重复的元素,那么试图在[1,100]这样的区间里选择500个元素,当然是不可能的,但是机器不知道这事,就一直尝试,没有精力做别的事了。

今天的话题是分词:Python扩展库jieba和snownlp很好地支持了中文分词,可以使用pip命令进行安装。在自然语言处理领域经常需要对文字进行分词,分词的准确度直接影响了后续文本处理和挖掘算法的最终效果。

>>> import jieba #导入jieba模块

>>> x = '分词的准确度直接影响了后续文本处理和挖掘算法的最终效果。'

>>> jieba.cut(x) #使用默认词库进行分词

<generator object Tokenizer.cut at 0x000000000342C990>

>>> list(_)

['分词', '的', '准确度', '直接', '影响', '了', '后续', '文本处理', '和', '挖掘', '算法', '的', '最终', '效果', '。']

>>> list(jieba.cut('纸杯'))

['纸杯']

>>> list(jieba.cut('花纸杯'))

['花', '纸杯']

>>> jieba.add_word('花纸杯') #增加新词条

>>> list(jieba.cut('花纸杯')) #使用新题库进行分词

['花纸杯']

>>> import snownlp 导入snownlp模块

>>> snownlp.SnowNLP('学而时习之,不亦说乎').words

['学而', '时习', '之', ',', '不亦', '说乎']

>>> snownlp.SnowNLP(x).words

['分词', '的', '准确度', '直接', '影响', '了', '后续', '文本', '处理', '和', '挖掘', '算法', '的', '最终', '效果', '。']

如果有一本Python书,像下面图中所展示的写作风格,大家会不会很喜欢呢,至少我是会的。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2016-09-13,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Python小屋 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档