前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >python爬虫之定位网页元素的三种方式

python爬虫之定位网页元素的三种方式

作者头像
拓荒者
发布2019-03-16 14:42:19
3K1
发布2019-03-16 14:42:19
举报
文章被收录于专栏:运维经验分享运维经验分享

个人分类: python

版权声明:本文为博主原创文章,转载请注明出处 https://blog.csdn.net/rankun1/article/details/81357179

在做爬虫的过程中,网页元素的定位是比较重要的一环,本文总结了python爬虫中比较常用的三种定位网页元素的方式。

1.普通的BeautifulSoup find系列操作

2.BeautifulSoup css选择器

3. xpath

这三种方式灵活运用,再配合上正则表达式,没有什么网页能难倒你啦。

我们以获取豆瓣电影top250第一页的电影标题为例来比较:

代码语言:javascript
复制
import requests
 from bs4 import BeautifulSoup
 from lxml import etree
 
 # 通过find定位标签
 # BeautifulSoup文档:https://www.crummy.com/software/BeautifulSoup/bs4/doc/index.zh.html
 def bs_parse_movies(html):
     movie_list = []
     soup = BeautifulSoup(html, "lxml")
     # 查找所有class属性为hd的div标签
     div_list = soup.find_all('div', class_='hd')
     # 获取每个div中的a中的span(第一个),并获取其文本
     for each in div_list:
         movie = each.a.span.text.strip()
         movie_list.append(movie)
 
     return movie_list
 
 # css选择器定位标签
 # 更多ccs选择器语法:http://www.w3school.com.cn/cssref/css_selectors.asp
 # 注意:BeautifulSoup并不是每个语法都支持
 def bs_css_parse_movies(html):
     movie_list = []
     soup = BeautifulSoup(html, "lxml")
     # 查找所有class属性为hd的div标签下的a标签的第一个span标签
     div_list = soup.select('div.hd > a > span:nth-of-type(1)')
     # 获取每个span的文本
     for each in div_list:
         movie = each.text.strip()
         movie_list.append(movie)
 
     return movie_list
 
 # XPATH定位标签
 # 更多xpath语法:https://blog.csdn.net/gongbing798930123/article/details/78955597
 def xpath_parse_movies(html):
     et_html = etree.HTML(html)
     # 查找所有class属性为hd的div标签下的a标签的第一个span标签
     urls = et_html.xpath("//div[@class='hd']/a/span[1]")
 
     movie_list = []
     # 获取每个span的文本
     for each in urls:
         movie = each.text.strip()
         movie_list.append(movie)
 
     return movie_list
 
 def get_movies():
     headers = {
         'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2743.82 Safari/537.36',
         'Host': 'movie.douban.com'
     }
 
     link = 'https://movie.douban.com/top250'
     r = requests.get(link, headers=headers, timeout=10)
     print("响应状态码:", r.status_code)
     if 200 != r.status_code:
         return None
 
     # 三种定位元素的方式:
 
     # 普通BeautifulSoup find
     return bs_parse_movies(r.text)
     # BeautifulSoup css select
     return bs_css_parse_movies(r.text)
     # xpath
     return xpath_parse_movies(r.text)
 
 movies = get_movies()
 print(movies)
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018/12/10 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档