首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

利用Python生成词云

利用Python生成词云

一、第三方库的安装与介绍

1.1 Python第三方库jieba(中文分词)

1.介绍

“结巴”中文分词:做最好的 Python 中文分词组件。

2.特点

(1)支持三种分词模式:

精确模式,试图将句子最精确地切开,适合文本分析;

全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;

搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。

(2)支持繁体分词

(3)支持自定义词典

(4)MIT 授权协议

3.安装说明

全自动安装:easy_install jieba 或者 pip install jieba / pip3 install jieba

半自动安装:先下载 http://pypi.python.org/pypi/jieba/ ,解压后运行 python setup.py install

手动安装:将 jieba 目录放置于当前目录或者 site-packages 目录

通过 import jieba 来引用

4.主要功能

这次我们主要用到的是分词功能,因此我们这里只介绍分词的功能。

jieba.cut 方法接受三个输入参数: 需要分词的字符串;cut_all 参数用来控制是否采用全模式;HMM 参数用来控制是否使用 HMM 模型。

jieba.cut_for_search 方法接受两个参数:需要分词的字符串;是否使用 HMM 模型。该方法适合用于搜索引擎构建倒排索引的分词,粒度比较细。

待分词的字符串可以是 unicode 或 UTF-8 字符串、GBK 字符串。注意:不建议直接输入 GBK 字符串,可能无法预料地错误解码成 UTF-8jieba.cut 以及 jieba.cut_for_search 返回的结构都是一个可迭代的 generator,可以使用 for 循环来获得分词后得到的每一个词语(unicode),或者用jieba.lcut 以及jieba.lcut_for_search 直接返回 list。

jieba.Tokenizer(dictionary=DEFAULT_DICT) 新建自定义分词器,可用于同时使用不同词典。jieba.dt 为默认分词器,所有全局分词相关函数都是该分词器的映射。

示例代码:

图1.1 jieba库的示例代码

运行结果:

图1.2 运行结果

1.2 Python第三方库wordcloud(词云)

1.介绍

wordcloud库,可以说是python非常优秀的词云展示第三方库。词云以词语为基本单位更加直观和艺术的展示文本。

图1.3 词云生成图

安装和jieba库安装一致。

2. 主要功能

wordcloud把词云当作一个对象,它可以将文本中词语出现的频率作为一个参数绘制词云,而词云的大小、颜色、形状等都是可以设定的。

生成词云的步骤有:

(1)配置对象参数

(2)加载词云文本

(3)输出词云文件 (如果不加说明默认的图片大小为400 * 200)

3. 常用的参数列表

图1.4 常见参数列表

二、生成一个词云

1. 生成《关于实施乡村振兴战略的意见》的词云

代码:

图2.1 代码

结果图:

图2.2 《关于实施乡村振兴战略的意见》的词云

2. 生成《新时代中国特色社会主义》的词云,形状为中国地图。

代码:

图2.3 代码

图2.4 《新时代中国特色社会主义》词语图

投稿、编辑:郭锐涛 乔玥

校对:谢妙竹

指导:刘涛教授

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190209G0PCMK00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券