首页
学习
活动
专区
工具
TVP
发布

python3.6爬虫之豆瓣小王子详解(一)

目标:抓取豆瓣小王子读者的书评,并保存于本地excel。

爬虫的流程:发送请求——获得页面——解析页面——抽取并储存内容。

我们第一个案例便采用:requests(获取)——xpath(解析)——pandas(储存)

废话不多说,先上结果与代码:

# -*- coding: utf-8 -*- #告知用utf-8编码

#获取

importrequests#引入requests

r = requests.get('https://book.douban.com/subject/1084336/comments/hot?p=1')#用get方法获取网页

html = r.text#把内容赋值给html

#解析

fromlxmlimportetree#引入lxml的etree

s = etree.HTML(html)#把html转换成lxml可解析的对象

text_list = s.xpath('//*[@id="comments"]/ul/li/div[2]/p/text()')#解析这一页的text

#储存

importpandasaspd#引入pandas,简写成pd

df = pd.DataFrame(text_list)#定义DataFrame对象并赋给df

df.to_excel('D://comments.xlsx')#把结果输出为csv格式,存在D盘

不超过10行代码,是不是很简单呢?

现重点讲解解析部分xpath的用法:

首先鼠标左键选取到需要爬取的书评

右键,点击“检查”,在“Elements”下找到定位到所需数据

右键——Copy——Copy Xpath,即可完成Xpath的复制

示例:

总结:

1:Python爬虫,上手其实很简单啦。

2:推荐新手使用pycharm编辑器,界面实在太友好了。

3:想要实现这个爬取,首先,你要安装request、xpath、pandas等第三方库哦,网上很多安装教程,在这我就不累赘了。

4:每个软件、第三方库内容太多,我们不可能都去学,所以我们只需要去学习我们当前需要的知识就Ok了(学不在多,在于消化)。

下一篇文章,将扩大难度,抓取小王子书评前100页的内容,大家可以提前思考下,怎样实现翻页哦。

有不清楚的地方,大家可以留言,点赞哦,我看到了,会第一时间回复你。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20171223G09L0V00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券