开局一张图,内容不靠编。
在综述文章里,难道不要统计文献情况吗?统计的文献情况关键词那么多,难道用词云它不香吗!!!!!!!!!?
对于某些执着于图片质量的高玩,实验内容好不好是次要的、文章好不好是次要的、漂漂亮亮的图才是最体面的。这样,不加一点特别的图片,还真的不行呢!
不过话说回来,词云的效果在体现一个研究方向的热点情况而言,确实有一定的辅助作用,当然上图好像是在体现作者名字的频次上了(很明显我没有看过文章)。。。但是!不管怎么样,它确实可以为综述型文章增色不少。为此,一个利用python制作词云的方法就很必要了啊(当然,其他语言也可以做,只是。。。我不会其他语言啊~)
好了,接下来就是代码了啊,当然,本着调包语言的特色,随着其他人的大流,代码分两部分,第一部分循规蹈矩;第二部分,花里胡哨:
import jieba
from wordcloud import WordCloud
import matplotlib.pyplot as plt
text=open('D:/b/log.txt',encoding='gbk',errors='ignore').read()
text=text.replace('\n','').replace('\u3000','')
text_cut=jieba.lcut(text)
text_cut=' '.join(text_cut)
stop_words=open('D:/b/2.txt',encoding='gbk',errors='ignore').read().split(' ')
word_c=WordCloud(font_path='simsun.ttc',background_color='white',stopwords=stop_words)
word_c.generate(text_cut)
plt.figure(figsize=(12,8))
plt.imshow(word_c)
plt.show()
首先,词库是我已经有的,你要是真的写综述,最好还是去爬关键词(或者作者大名),爬虫的代码我不给~为什么呢?肯定是懒啊!其次,一些细节是可以调整的,具体参数百度去吧(别问为什么,还是因为懒)~把结果图给你放出来:
花里胡哨版,其实也就是加了一个蒙版,你可以用各种图案做底,我这么有爱心的懒人,肯定放个爱心啦~
import jieba
import numpy as np
from wordcloud import WordCloud,ImageColorGenerator
import matplotlib.pyplot as plt
#from PIL import Image
text=open('D:/b/log.txt',encoding='gbk',errors='ignore').read()
text=text.replace('\n','').replace('\u3000','')
text_cut=jieba.lcut(text)
text_cut=' '.join(text_cut)
stop_words=open('D:/b/2.txt',encoding='gbk',errors='ignore').read().split(' ')
background=plt.imread('D:/b/cloud.jpg')
graph=np.array(background)[:,:,0]
graph[graph==246]=255
word_c=WordCloud(font_path='simsun.ttc',background_color='white',mask=graph,stopwords=stop_words,
max_words=2000,max_font_size=150,random_state=30)
word_c.generate(text_cut)
plt.figure(figsize=(12,12))
plt.imshow(word_c)
plt.show()
小技巧,里面有个numpy的掩码方式,改天再写个帖子吧~
图:
哦,对了,我把变量也截图给大家康康~
你可以自行设置,哪些词是不要的。。具体大家看看代码吧
喜欢的关注一下吧,保证物有所值!
最后,希望我的幸福快乐=Max(大家的幸福快乐)