首页
学习
活动
专区
工具
TVP
发布

Python词云

互联网大数据时代,我们经常可以在媒体或者网站上看到一些非常漂亮的信息图。看过之后你有什么感觉?想不想自己做一张出来?如果你的答案是肯定的,我们就不要拖延了,现在就开始,做个词云分析图。

一、词云是什么

由词汇组成类似云的彩色图形。“词云”就是对网络文本中出现频率较高的“关键词”予以视觉上的突出,形成“关键词云层”或“关键词渲染”,从而过滤掉大量的文本信息,使浏览网页者只要一眼扫过文本就可以领略文本的主旨。

二、词云的作用

直观,高大上的展示我需要呈现的数据情况。

三、准备工作

1、导入包——jieba和wordcloud

命令:pip install jieba

命令:pip install wordcloud

备注:对于pycharm等可采用各自的方法导入包

2、文本和图片的准备

文本:可爬取网上资料或某歌曲书籍等关键字,亦或是像我是自己手动输入文字并用tab隔开

图片:找自己喜欢的图片,这里我采用乔巴的图片作为背景,而且除了主要人物外,其他背景都为白色,显示效果较好。

采用的文本内容:

paper going keep fighting happy Backpropagation/BP AI

Technology Chine new year you tahnks hha

hmmm emmm yesterday sunday Batch Normalization/BN autoencoder

ALL Data big math python abc Thanks for your reminder, I’ll update resource dll to fix those issue.

采用的图片:

四、代码

# coding: utf-8importjiebafromwordcloudimportWordCloud,STOPWORDSfromscipy.miscimportimread# 处理图像的函数importmatplotlib.pyplotasplt# 读取文本文件text = open('t1.txt','r').read()# 对文本进行分词cut_text =''.join(jieba.cut(text))#cut分词,然后将分开的词用空格连接# 读取图片color_mask = imread('ciyun.jpg')# 生成词云cloud = WordCloud(# 这里是导入字体,因为我是采用英文的,所有不导入也并不影响,若是中文的或者有其他的字符需要自己选择合适的字体包background_color="white", mask=color_mask, max_words=2000, max_font_size=80)word_cloud = cloud.generate(cut_text)cloud.to_file('ss.png')#保存文件#使用plt显示图片plt.axis('off')#不显示坐标轴#显示图片plt.imshow(word_cloud)plt.show()

五、效果

六、分析

1 jieba(结巴)是一个强大的分词库,完美支持中文分词,本文对其基本用法做一个简要总结。

2 基本分词函数与用法

jieba.cut 以及 jieba.cut_for_search 返回的结构都是一个可迭代的 generator,可以使用 for 循环来获得分词后得到的每一个词语(unicode)

jieba.cut 方法接受三个输入参数:

需要分词的字符串

cut_all 参数用来控制是否采用全模式 (精准模式和全模式,默认是精准模式)

HMM 参数用来控制是否使用 HMM 模型

jieba.cut_for_search (搜索引擎模式)方法接受两个参数

需要分词的字符串

是否使用 HMM 模型。

该方法适合用于搜索引擎构建倒排索引的分词,粒度比较细

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190126G09ZHJ00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券