前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Python总结-----爬虫

Python总结-----爬虫

作者头像
GuangdongQi
发布2020-05-26 22:05:23
1.5K0
发布2020-05-26 22:05:23
举报
文章被收录于专栏:Guangdong QiGuangdong Qi

实战请看下一篇

爬虫是我最喜欢干的事了,把别人的东西拿到自己的手里有一种江洋大盗的快感,后来爬多了。。。

这只是一种技术

初始爬虫

问题:

什么是爬虫?参考链接

网络爬虫是一种按照一定的规则自动地抓取网络信息的程序或者脚本

爬虫有什么用?

① 网络数据采集

② 大数据分析

③ 网页分析

什么工作原理?
首先来看网页特征
  1. HTML 描绘网页信息 HTML是一种标记语言,用标签标记内容并加以解析和区分。 浏览器的功能是将获取到的HTML代码进行解析,然后将原始的代码转变成我们直接看到的网站页面。
  2. 使用 HTTP / HTTPS传输协议
  3. 唯一的地址路径 URL

所以我们可以拿到 URL,通过使用 HTTP / HTTPS传输协议来获取整个 HTML 页面,然后解析整个 HTML 就可以得到 HTML 中的数据

那么对于一个程序员来说就是:
  1. 拿到要爬取的URL
  2. 发送 Request 请求
代码语言:javascript
复制
①.设置请求方式:GET、POST
②.请求的URL
③.请求头
④.请求体

3.获取 Response 数据

代码语言:javascript
复制
①.响应状态:ResponseCode
②.响应头:ResponseHeader
③.响应体:ResponseBody

4.数据解析

代码语言:javascript
复制
①.直接返回
②.json、xml解析
③.正则表达式
④.BeautifulSoup
⑤.Xpath
⑥.Lxml
⑦.html6lib

5.数据存储

代码语言:javascript
复制
①.json、xml、txt直接保存
②.MySQL、SQL Server
③.MongoDB、Redis、Excel
④.file类型:image、video、mp3等等

爬虫战斗

数据解析 BeautifulSoup 和 Lxml


Beautiful Soup

Beautiful Soup提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。 Beautiful Soup自动将输入文档转换为Unicode编码,输出文档转换为utf-8编码。你不需要考虑编码方式,除非文档没有指定一个编码方式,这时,Beautiful Soup就不能自动识别编码方式了。然后,你仅仅需要说明一下原始编码方式就可以了。 Beautiful Soup已成为和lxml、html6lib一样出色的python解释器,为用户灵活地提供不同的解析策略或强劲的速度。

Lxml

Lxml是一个Python库,使用它可以轻松处理XML和HTML文件,还可以用于web爬取。市面上有很多现成的XML解析器,但是为了获得更好的结果,开发人员有时更愿意编写自己的XML和HTML解析器。这时lxml库就派上用场了。这个库的主要优点是易于使用,在解析大型文档时速度非常快,归档的也非常好,并且提供了简单的转换方法来将数据转换为Python数据类型,从而使文件操作更容易。

Beautiful Soup 和 Lxml 对比

两个我都尝试过 lxml比beautifulSoup速度更快,容错和处理能力更强,

还有另外一点lxml可以使用Xpath

所以我后面使用lxml

Beautiful Soup

pip3 install beautifulsoup4

Lxml安装

pip3 install lxml

Xpath语法 Xpath教程

认识Xpath

XPath 是一门在 XML 文档中查找信息的语言。XPath 可用来在 XML 文档中对元素和属性进行遍历。 XPath 是 W3C XSLT 标准的主要元素,并且 XQuery 和 XPointer 都构建于 XPath 表达之上。 因此,对 XPath 的理解是很多高级 XML 应用的基础。

说白了 Xpath 使用路径表达式来选取 XML 文档中的节点或者节点集。这些路径表达式和我们在常规的电脑文件系统中看到的表达式非常相似。

选取节点

XPath 使用路径表达式在 XML 文档中选取节点。节点是通过沿着路径或者 step 来选取的。

下面列出了最有用的路径表达式:

表达式

描述

nodename

选取此节点的所有子节点。

/

从根节点选取。

//

从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。

.

选取当前节点。

..

选取当前节点的父节点。

@

选取属性。


在下面的表格中,我们已列出了一些路径表达式以及表达式的结果:

路径表达式

结果

bookstore

选取 bookstore 元素的所有子节点。

/bookstore

选取根元素 bookstore。注释:假如路径起始于正斜杠( bookstore/book ),选取属于 bookstore 的子元素的所有 book 元素。

//book

选取所有 book 子元素,而不管它们在文档中的位置。

bookstore//book

选择属于 bookstore 元素的后代的所有 book 元素,而不管它们位于 bookstore 之下的什么位置。

//@lang

选取名为 lang 的所有属性。


谓语(Predicates)

谓语用来查找某个特定的节点或者包含某个指定的值的节点。

谓语被嵌在方括号中。

实例

在下面的表格中,我们列出了带有谓语的一些路径表达式,以及表达式的结果:

路径表达式

结果

/bookstore/book1

选取属于 bookstore 子元素的第一个 book 元素。

/bookstore/booklast()

选取属于 bookstore 子元素的最后一个 book 元素。

/bookstore/booklast()-1

选取属于 bookstore 子元素的倒数第二个 book 元素。

/bookstore/bookposition()<3

选取最前面的两个属于 bookstore 元素的子元素的 book 元素。

//title@lang

选取所有拥有名为 lang 的属性的 title 元素。

//title@lang='eng'

选取所有 title 元素,且这些元素拥有值为 eng 的 lang 属性。

/bookstore/bookprice>35.00

选取 bookstore 元素的所有 book 元素,且其中的 price 元素的值须大于 35.00。

/bookstore/bookprice>35.00/title

选取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值须大于 35.00。


选取未知节点

XPath 通配符可用来选取未知的 XML 元素。

通配符

描述

*

匹配任何元素节点。

@*

匹配任何属性节点。

node()

匹配任何类型的节点。

实例

在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果:

路径表达式

结果

/bookstore/*

选取 bookstore 元素的所有子元素。

//*

选取文档中的所有元素。

//title@*

选取所有带有属性的 title 元素。

选取若干路径

通过在路径表达式中使用“|”运算符,您可以选取若干个路径。

实例

在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果:

路径表达式

结果

//book/title - //book/price

选取 book 元素的所有 title 和 price 元素。

//title - //price

选取文档中的所有 title 和 price 元素。

/bookstore/book/title - //price

选取属于 bookstore 元素的 book 元素的所有 title 元素,以及文档中所有的 price 元素。

开始战斗放在下一篇

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 实战请看下一篇
  • 初始爬虫
    • 问题:
    • 爬虫战斗
      • 数据解析 BeautifulSoup 和 Lxml
        • Xpath语法 Xpath教程
        • 开始战斗放在下一篇
        相关产品与服务
        云数据库 MySQL
        腾讯云数据库 MySQL(TencentDB for MySQL)为用户提供安全可靠,性能卓越、易于维护的企业级云数据库服务。其具备6大企业级特性,包括企业级定制内核、企业级高可用、企业级高可靠、企业级安全、企业级扩展以及企业级智能运维。通过使用腾讯云数据库 MySQL,可实现分钟级别的数据库部署、弹性扩展以及全自动化的运维管理,不仅经济实惠,而且稳定可靠,易于运维。
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档