前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >网络爬虫 | XPath解析

网络爬虫 | XPath解析

作者头像
数据STUDIO
发布于 2021-06-24 02:29:12
发布于 2021-06-24 02:29:12
1.3K00
代码可运行
举报
文章被收录于专栏:数据STUDIO数据STUDIO
运行总次数:0
代码可运行

在学习xpath提取数据之前,得先了解下解析HTML代码的一些方法,如果读者想更加深入学习HTML代码等相关内容,需要去查看下前端HTML相关内容,本文仅介绍网络爬虫需要用到的部分内容。

本文介绍使用lxml模块解析HTML与XML,因其支持XPath解析方式,且在解析效率方面非常优秀。

Tips: 你可以通过pip install lxml命令安装 lxml模块

解析HTML

parse()

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
etree.parse(source, parser=None, *, base_url=None)

返回加载源元素的ElementTree对象。如果没有解析器作为第二个参数提供,则使用默认解析器。 source: 可以是下列任何一种:

  • 文件名/路径
  • 档案对象
  • 一个类似文件的对象
  • 使用HTTP或FTP协议的URL

注意,从文件路径或URL解析通常更快,而不是从打开的文件对象或类文件对象。支持从gzip压缩源透明解压(除非在libxml2中显式禁用)。 base_url: 关键字允许为文档设置URL从类文件对象进行解析时。这是在寻找时需要的具有相对路径的外部实体(DTD, XInclude,…)。


fromstring()

如果要解析字符串,请使用'fromstring()'函数。fromstring函数可以把一串xml解析为一个xml元素(返回值类型和etree.Element一样,是lxml.etree._Element类)。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
>>> some_xml_data = "<root>data</root>"
>>> root = etree.fromstring(some_xml_data)
>>> etree.tostring(root)
b'<root>data</root>'

1、解析本地的HTML文件

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
#  'studio.html'
from lxml import etree
parser = etree.HTMLPaser()                       # 创建HTMLPaser对象
html = etree.parse('studio.html', parser=parser) # 解析本地的HTML文件
html_txt = etree.tostring(html, encoding='utf-8')# 转换字符串类型,并进行编码
html_txt.decode('utf-8')

使用tostring()可以提取出xml中所含的全部文本。

HTML()

HTML函数会自动加上html和body元素(如果原字符串没有的话),同样是返回Element类。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
>>> root = etree.HTML("<p>data</p>")
>>> etree.tostring(root)
b'<html><body><p>data</p></body></html>'

注意:HTML函数的返回值依然会被当成标准XML处理。

2、解析字符串类型的HTML代码

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
>>> root = etree.HTML('<head/><p>Hello<br/>World</p>')
# 没有XML声明, 默认为ASCII编码。
>>> etree.tostring(root)
b'<html><head/><body><p>Hello<br/>World</p></body></html>'
>>> etree.tostring(root, method='html') 
b'<html><head></head><body><p>Hello<br>World</p></body></html>'
# 换行
>>> html_txt = etree.tostring(root, method='html', encoding='uft-8') 
>>> html_txt.decode('utf-8')
'<html><head></head><body><p>Hello<br>World</p></body></html>'

lxml.etree.HTML(),lxml.etree.fromstring()和lxml.etree.tostring()三者之间的区别和联系

文档格式化方法

类型type

根节点

编码方式

XPath

etree.HTML()

<class 'lxml.etree._Element'>

html

(X.encode('utf-8'))

支持

etree.fromstring()

<class 'lxml.etree._Element'>

原文档根节点

(X.encode('utf-8'))

支持

etree.tostring()

<class 'bytes'>

不支持

  • 从类型上看,etree.HTML()和etree.fromstring()都是属于同一种"class类",这个类型才会支持使用xpath。也就说etree.tostring()是"字节bytes类"不能使用xpath
  • 从根节点看,etree.HTML()的文档格式已经变成html类型,所以根节点自然就是html标签]。但是,etree.fromstring()的根节点还是原文档中的根节点,说明这种格式化方式并不改变原文档的整体结构,这样有利于使用xpath的绝对路径方式查找信息!而etree.tostring()是没有所谓的根节点的,因为这个方法得到的文档类型是"bytes类"
  • 从编码方式上看,etree.HTML()和etree.fromstring()的括号内参数都要以"utf-8"的方式进行编码!表格中的X是表示用read()方法之后的原文档内容

3、解析服务器返回的HTML代码

发送网络请求后返回的响应结果转为字符串类型,如果返回的结果是HTML代码,则需要解析HTML代码。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
from lxml import etree
import requests
from requests.auth import HTTPBasicAuth
url = 'http://'
auth = HTTPBasicAuth('username', 'password')
response = requests.get(url=url, auth=auth)
if response.status_code == 200:
   html = etree.HTML(response.text)
    html_txt = etree.tostring(html, encoding='utf-8')
    print(html_txt.decode('utf-8'))

XPath解析方式

官方网站(https://www.w3.org/TR/xpath/all/

XPath 是一门路径提取语言,常用于从 html/xml 文件中提取信息。它的基规则如下.

选取节点

表达式

描述

nodename

选取此节点的所有子节点

/

从根节点选取

//

从匹配选择的当前节点选择文档中的节点,而不考虑他们的位置

.

选取当前节点

..

选取当前节点的父节点

@

选取属性

*

选取所有节点

下面为一些路径表达式及表达式结果:

路径表达式

结果

petstore

选取 petstore 元素的所有子节点

/petstore

选取根元素 petstore。注释:假如路径起始于正斜杠( / ),则此路径始终代表到某元素的绝对路径!

petstore/corgi

选取属于 petstore 的子元素的所有 corgi 元素

//corgi

选取所有 corgi 子元素,而不管它们在文档中的位置。

petstore//corgi

选择属于 petstore 元素的后代的所有 corgi 元素,而不管它们位于 petstore 之下的什么位置。

//@dog

选取名为 dog 的所有属性。

谓语(Predicates)

谓语用来查找某个特定的节点或者包含某个指定的值的节点。谓语被嵌在方括号中。下面为一些带有谓语的路径表达式,及表达式结果。

路径表达式

结果

/petstore/corgi[1]

选取属于 petstore 子元素的第一个 corgi 元素。

/petstore/corgi[last()]

选取属于 petstore 子元素的最后一个 corgi 元素。

/petstore/corgi[last()-1]

选取属于 petstore 子元素的倒数第二个 corgi 元素。

/petstore/corgi[position()<3]

选取最前面的两个属于 petstore 元素的子元素的 corgi 元素。

//title[@dog]

选取所有拥有名为 dog 的属性的 title 元素。

//title[@dog='female']

选取所有 title 元素,且这些元素拥有值为 female 的 dog 属性。

/petstore/corgi[price>2500.00]

选取 petstore 元素的所有 corgi 元素,且其中的 price 元素的值须大于 2500.00。

/petstore/corgi[price>2500.00]/title

选取 petstore 元素中的 corgi 元素的所有 title 元素,且其中的 price 元素的值须大于 2500.00。

//div[contains(@class,"f1")]

选择div属性包含"f1"的元素

选取未知节点

XPath 通配符可用来选取未知的 XML 元素。

通配符

描述

*

匹配任何元素节点。

@*

匹配任何属性节点。

node()

匹配任何类型的节点。

在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果:

路径表达式

结果

/petstore/*

选取 petstore 元素的所有子元素。

//*

选取文档中的所有元素。

html/node()/meta/@*

选择html下面任意节点下的meta节点的所有属性

//title[@*]

选取所有带有属性的 title 元素。

contains()方法实现属性多值匹配 contains(指定属性名称, 指定属性值) 如需既获取class=class="main-hd",又要获取class="main"的节点时,如果HTML代码中包含指定的属性值,就可以匹配成功。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
html = etree.HTML(html_str)
div_all = html.xpath('//div[contains(@lcass, "main")]/text()') # text()获取问题,下面介绍

and多属性匹配 在一个节点中出现多个属性,这时就需要同时多个属性,以便更加精确地获取指定节点中的数据。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
>>> from lxml import etree
>>> html_str = '''
<div class="main-hd">
 <div class="main review-item" id="13045497">云朵</div>
 <div class="main review-item" id="13054201">数据STUDIO</div>
</div>
'''
>>> html = etree.HTML(html_str)
>>> div_all = html.xpath('//div[@class="main review-item" and @id="13054201"]/text()')
>>> print(div_all)
['数据STUDIO']

获取文本

可以使用XPath的text()方法获取HTML代码中的文本。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
>>> from lxml import etree
>>> html_str = '''
<header class="main-hd">
        <a href="https://www.douban.com/people/162291901/" class="name">苍华</a>
            <span class="allstar10 main-title-rating" title="很差"/>
        <span content="2020-12-10" class="main-meta">2020-12-10 01:29:29</span>
    </header>
'''
>>> html = etree.HTML(html_str)
>>> a_text = html.xpath('//a/text()')
>>> print(f'所有a下节点文本信息:{a_text}')
所有a下节点文本信息:['苍华']

XPath表达式中运算符:

运算符

描述

实例

返回值

+

加法

5 + 4

9

减法

5 – 4

1

*

乘法

5 * 4

20

div

除法

5 div 5

1

=

等于

price=100.0

如果 price 是 100.0,则返回 true。如果 price 是 110.0,则返回 false。

!=

不等于

price!=100.0

如果 price 是 100.0,则返回 true。如果 price 是 99.0,则返回 false。

<

小于

price<100.0

如果 price 是 99.0,则返回 true。如果 price 是 100.0,则返回 false。

<=

小于或等于

price<=100.0

如果 price 是 100.0,则返回 true。如果 price 是 99.0,则返回 false。

>

大于

price>100.0

如果 price 是 110.0,则返回 true。如果 price 是 99.0,则返回 false。

>=

大于或等于

price>=100.0

如果 price 是 110.0,则返回 true。如果 price 是 99.0,则返回 false。

or

price=100.0or price=99.0

如果 price 是 99.0,则返回 true。如果 price 是 99.8,则返回 false。

and

price>99.0 and price<100.0

如果 price 是 99.8,则返回 true。如果 price 是 88.0,则返回 false。

mod

计算除法的余数

6 mod 4

2

|

计算两个节点集

//div|//ul

返回所有div和a节点集

XPath 轴(Axes)

轴可定义相对于当前节点的节点集。

轴名称

结果

ancestor

当前节点的所有先辈(父、祖父等)。

ancestor-or-self

当前节点的所有先辈(父、祖父等)以及当前节点本身。

attribute

当前节点的所有属性。

child

当前节点的所有子元素。

descendant

当前节点的所有后代元素(子、孙等)。

descendant-or-self

当前节点的所有后代元素(子、孙等)以及当前节点本身。

following

文档中当前节点的结束标签之后的所有节点。

following-sibling

当前节点之后的所有兄弟节点

namespace

当前节点的所有命名空间节点。

parent

当前节点的父节点。

preceding

文档中当前节点的开始标签之前的所有节点。

preceding-sibling

当前节点之前的所有同级节点。

self

当前节点。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
from lxml import etree
html_str = '''
<div class="main-hd">
  <li><a href="https://www.douban.com/people/162291901/" class="name">苍华</a>
</div>
'''
html = etree.HTML(html_str)
# 获取li[0]所有祖先节点
html.xpath('//li[0]/ancestor::*')
# 获取li[0]属性为class="main"的祖先节点
class_div = html.xpath('//li[0]/ancestor::*[@class="main"]')
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-12-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 数据STUDIO 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Python解析库lxml与xpath用法总结
一、xpath 概念、xpath节点、xpath语法、xpath轴、xpath运算符
Python进阶者
2021/04/19
1.5K0
Python解析库lxml与xpath用法总结
五、XML与xpath--------------爬取美女图片 先用一个小实例开头吧(爬取贴吧每个帖子的图片)XML 和 HTML 的区别XML文档示例
除了正则表达式处理HTML文档,我们还可以用XPath,先将 HTML文件 转换成 XML文档,然后用 XPath 查找 HTML 节点或元素。 ----  先用一个小实例开头吧(爬取贴吧每个帖子的图片) import requests from lxml import etree class Myspider(): def __init__(self): self.post_bar = input('请输入贴吧名:') self.num = 1 def
酱紫安
2018/04/16
1.4K0
五、XML与xpath--------------爬取美女图片	先用一个小实例开头吧(爬取贴吧每个帖子的图片)XML 和 HTML 的区别XML文档示例
Python的Xpath介绍和语法详解
XPath是一门在XML和HTML文档中查找信息的语言,可以用来在XML和HTML文档中对元素和属性进行遍历
Lansonli
2021/10/09
4.1K0
爬虫系列(8)数据提取--扩展三种方法。
w3c http://www.w3school.com.cn/xpath/index.asp
野原测试开发
2019/07/10
2K0
爬虫系列(8)数据提取--扩展三种方法。
知识点讲解一:Xpath的介绍和用法
本来是不打算学Xpath的,个人觉得BeautifulSoup()完全能够满足自己的爬虫需求了。但是在学Selenium是时候教程用的是Xpath,加上之前身边的小伙伴也一直在给自己安利Xpath,索性就了解一下。
K同学啊
2019/01/22
7660
Python爬虫技术系列-02HTML解析-xpath与lxml
参考连接: XPath教程 https://www.w3school.com.cn/xpath/index.asp lxml文档 https://lxml.de/index.html#support-the-project 爬虫专栏 https://blog.csdn.net/m0_38139250/category_12001010.html
用户2225445
2023/10/16
3550
Python爬虫技术系列-02HTML解析-xpath与lxml
lxml简明教程
最近要做下微信爬虫,之前写个小东西都是直接用正则提取数据就算了,如果需要更稳定的提取数据,还是使用 xpath 定位元素比较可靠。周末没事,从爬虫的角度研究了一下 python xml 相关的库。
爬虫技术学习
2023/02/14
6690
lxml简明教程
python爬虫入门(三)XPATH和BeautifulSoup4
 XML和XPATH 用正则处理HTML文档很麻烦,我们可以先将 HTML文件 转换成 XML文档,然后用 XPath 查找 HTML 节点或元素。 XML 指可扩展标记语言(EXtensible M
zhang_derek
2018/04/11
2.4K0
python爬虫入门(三)XPATH和BeautifulSoup4
关于xpath的应用
1.xpath中使用contains xpath(span[contains(@class, 'xxx')]) Xpath如何选择不包含某一个属性的节点? 这里可以用到 not 例如排除一个属性的节
hankleo
2020/09/17
5610
11月10日python爬虫分析网页的模块lxml和Beautiful Soup
format自动排列 # 定义文件存储的位置,原始的定义要改变的地方是定义在字符串中的 fileName = 'g:/spider/poetry/poetry{0}.html' f = open(fileName.format(z), "wb")
武军超
2019/02/25
9820
Python爬虫笔记3-解析库Xpat
W3School官方文档:http://www.w3school.com.cn/xm...
py3study
2020/01/03
1K0
04.Xpath的使用
一.Xpath简介 XPath 是一门在 XML 文档中查找信息的语言。XPath 可用来在 XML 文档中对元素和属性进行遍历。相比于BeautifulSoup,Xpath在提取数据时会更有效率。 二.怎么做? 安装: pip install lxml 导包: from lxml import etree 使用: page = etree.HTML('html代码') # 解析并返回了 html 节点(解析HTML文档) print(type(page)) #<class 'lxml.et
见贤思齊
2020/08/05
7380
Python:XPath与lxml类库
W3School官方文档:http://www.w3school.com.cn/xml/index.asp
Lansonli
2021/10/09
1.6K0
Python Xpath解析 数据提取 基本使用
XPath 是一门在 XML 文档中查找信息的语言。XPath 可用来在 XML 文档中对元素和属性进行遍历,XPath 是 W3C XSLT 标准的主要元素,并且 XQuery 和 XPointer 都构建于 XPath 表达之上。
EXI-小洲
2022/12/13
2.2K0
Python Xpath解析 数据提取 基本使用
Python爬虫之xpath语法及案例使用
我们在写Python爬虫时,经常需要对网页提取信息,如果用传统正则表达去写会增加很多工作量,此时需要一种对数据解析的方法,也就是本章要介绍的Xpath表达式。
钢铁知识库
2022/08/20
1.1K0
Python爬虫之xpath语法及案例使用
Python之xpath
  绝对路径(absolute path)必须用”/”起首,后面紧跟根节点,比如/step/step/…
全栈程序员站长
2022/07/14
4680
数据提取-XPath
官网 (opens new window) http://lxml.de/index.html
小小杰啊
2022/12/21
1.3K0
数据解析之 XPath & lxml 库
即XML路径语言(XML Path Language),是一种用来确定XML文档中某部分位置的语言,它基于XML的树状结构,提供在数据结构树中寻找节点的能力,也适用于HTML文档中;
村雨遥
2022/06/15
4680
数据解析之 XPath & lxml 库
Python爬虫之数据提取-lxml模块
数据提取-lxml模块 知识点 了解 lxml模块和xpath语法的关系 了解 lxml模块的使用场景 了解 lxml模块的安装 了解 谷歌浏览器xpath helper插件的安装和使用 掌握 xpath语法-基础节点选择语法 掌握 xpath语法-节点修饰语法 掌握 xpath语法-其他常用语法 掌握 lxml模块中使用xpath语法定位元素提取属性值或文本内容 掌握 lxml模块中etree.tostring函数的使用 ---- 1. 了解 lxml模块和xpath语法 对html或xml形式的文本提
海仔
2020/09/08
2K0
Python爬虫之数据提取-lxml模块
Python爬虫(十二)_XPath与lxml类库
Python学习指南 有同学说,我正则用的不好,处理HTML文档很累,有没有其他的方法? 有!那就是XPath,我们可以用先将HTML文档转换成XML文档,然后用XPath查找HTML节点或元素。 什么是XML XML指可扩展标记语言(Extensible Markup Language) XML是一种标记语言,很类似HTML XML的设计宗旨是传输数据,而非显示数据。 XML的标签需要我们自行定义。 XML被设计为具有自我描述性。 XML是W3C的推荐标准。 W3School官
用户1174963
2018/01/17
2.1K0
Python爬虫(十二)_XPath与lxml类库
相关推荐
Python解析库lxml与xpath用法总结
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验