首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Python数据分析之贴吧的问与答读取数据库获取question列分词词云

上次爬虫小分队爬取了贴吧中python问题的精品回答,我自己也用scrapy写了一个程序,爬取了一点信息,存入MongoDB数据库中,代码就不上了,今天主要是通过pandas库读取数据,做问与答的文字云。

读取数据库

pandas库读取文件很方便,主要是运用dataframe,首先导入需要的模块;

代码语言:javascript
复制
import pandas as pd
import pymongo
import jieba.analyse

然后连接数据库,读取数据;

代码语言:javascript
复制
client = pymongo.MongoClient('localhost',port = 27017)
test = client['test']
tieba = test['tieba']
data = pd.DataFrame(list(tieba.find()))
data

获取question列

我们知道分词需要的是字符串格式的数据,所以需要通过dataframe的切片提取question这列的数据,并转化为字符串格式。

代码语言:javascript
复制
question_data = ''  #初始化字符串
for i in range(563):   #数字为数据的行数
    index = data.ix[i,:]   #取每行
    question = index['question']  #取每行的question
    question_data = question_data + question
print(question_data) 

分词

这部分以前讲过,贴上代码。

代码语言:javascript
复制
jieba.analyse.set_stop_words('停用词表路径')
tags = jieba.analyse.extract_tags(question_data, topK=50, withWeight=True)
for item in tags:
    print(item[0]+'\t'+str(int(item[1]*1000)))

词云

类似,也可以做出回答的词云。 问:

答:

下一篇
举报
领券