前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Python|简单爬取豆瓣网电影信息

Python|简单爬取豆瓣网电影信息

作者头像
算法与编程之美
修改2020-05-18 17:55:49
1.1K0
修改2020-05-18 17:55:49
举报

前言:

在掌握一些基础的爬虫知识后,就可以尝试做一些简单的爬虫来练一练手。今天要做的是利用xpath库来进行简单的数据的爬取。我们爬取的目标是电影的名字、导演和演员的信息、评分和url地址。

准备环境:Pycharm、python3、爬虫库request、xpath模块、lxml模块

第一步:分析url ,理清思路

先搜索豆瓣电影top250,打开网站可以发现要爬取的数据不止存在单独的一页,而是存在十页当中,这时应该怎么做呢?

首先观察:

第一页的

url:https://movie.douban.com/top250?start=0&filter=

第二页的

url:https://movie.douban.com/top250?start=25&filter=

第三页的

url:https://movie.douban.com/top250?start=50&filter=

可以得出一个结论每页的url是有规律的,start后面的数字等于页数减一乘以五。这样就可以用一个循环来爬取。

图1.1

再来就是通常的头部信息,第一步如下图所示:

图1.2

第二步:发送请求,利用xpath处理数据

Xpath可以通过节点来快速获取需要的信息,并把它提取出来。先打开浏览器的开发者工具。发现所有的电影数据都存放在div[@class="info"]的标签里,通过一级一级的获取,就可以得到想要的信息。可以直接来利用开发者工具的copy,来copy xpath的路径,但一般不推荐,因为很可能出错。

图2.1

如图所示:

图2.2

第三步:保存数据

我们可以用csv来保存数据

图3.1

代码如下:

代码语言:javascript
复制

import requests
 import lxml.html
 import csv
 etree = lxml.html.etree
 temp = r'C:\Users\86177\Desktop'+'\\'+'doubanmovie'
 with open(temp + '.csv', 'w') as f:
     csvwriter = csv.writer(f, dialect='excel')
     csvwriter.writerow(['title','info','average','link'])
 header ={'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)  AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.7 Safari/537.36'}
 for n in range(11):
     url = 'https://movie.douban.com/top250?start=%s&filter='.format((n-1)*5)
     response = requests.get(url,headers=header)
     response.encoding = "utf-8"
     html1 = etree.HTML(response.text)
     h = html1.xpath('//div[@class="info"]')
     for sech in h:
         i = sech
         title = i.xpath('div[@class="hd"]/a/span[@class="title"]/text()')
         othertitle = i.xpath('div[@class="hd"]/a/span[@class="other"]/text()')
         info = i.xpath('div[@class="bd"]/p/text()')
         average = i.xpath('div[@class="bd"]/div[@class="star"]/span[@class="rating_num"]/text()')
         link = i.xpath('div[@class="hd"]/a/@href')
 
         for a, b, c, d in zip(title,  info, average, link):
             print(a, b, c, d)
 
             with open(temp + '.csv', 'w')  as f:
                 csvwriter =  csv.writer(f, dialect='excel')
                 csvwriter.writerow([a,  b, c, d])

总结:

这次爬取豆瓣的反爬虫机制较少,很适合一些学习爬虫知识的小白来练一练手。提高爬虫实战的能力。

END

编 辑 | 王楠岚

责 编 | 王 曦

where2go 团队


本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-05-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 算法与编程之美 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
云开发 CLI 工具
云开发 CLI 工具(Cloudbase CLI Devtools,CCLID)是云开发官方指定的 CLI 工具,可以帮助开发者快速构建 Serverless 应用。CLI 工具提供能力包括文件储存的管理、云函数的部署、模板项目的创建、HTTP Service、静态网站托管等,您可以专注于编码,无需在平台中切换各类配置。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档