之前分享了许多Python网络爬虫的教程文章,可是没有系统的和更加深入的开始学习。此篇文章将开启AI悦创爬虫教程系统学习及其进阶的爬虫教程欢迎各位关注!
1. 什么是爬虫?
当今最大的网络是互联网,最大的爬虫就是各类搜索引擎,包括谷歌、百度等。网络爬虫就是按照一定规则去爬取人类所需要的信息的程序,主要通过对URL的请求来实现。一般来说,从搜索引擎这类爬虫搜索到的信息是非常宽泛的,而且夹杂着各种广告,信息是不纯粹的,也有可能不是我们需要的。这种时候,就需要一些聚焦于某一方面信息的爬虫来为我们服务,比方说,专门爬取某一类书籍的信息,在网站上浏览的时候,可能会有形形色色的图片和一些其他信息干扰我们,如果编写网络爬虫的话,就可以单单把自己想要的信息存储下来,以便数据分析,提取有用的信息。
总而言之:爬虫是请求网站并提取数据的自动化程序
2.爬虫基本流程
发起请求
通过HTTP库向目标站点发起请求,即发送一个Request,请求可以包含额外的headers等信息,等待服务器响应。
获取响应内容
如果服务器能正常响应,会得到一个Response,
Response的内容便是所要获取的页面内容,类型可能有HTML,Json字符串,二进制数据(如图片视频)等类型。
解析内容
得到的内容可能是HTML,可以用正则表达式、网页解析库进行解析。可能是Json,可以直接转为Json对象解析,可能是二进制数据,可以做保存或者进一步的处理。
保存数据
保存形式多样,可以存为文本,也可以保存至数据库,或者保存特定格式的文件。
下面给出图片的形式,方便同学们做笔记:
3.什么是 Request 和 Response?
Request 与 Response
(1)浏览器就发送消息给该网址所在的服务器,这个过程叫做HTTPRequest。
(2)服务器收到浏览器发送的消息后,能够根据浏览器发送消息的内容,做相应处理,然后把消息回传给浏览器。这个过程叫做HTTPResponse。
(3)浏览器收到服务器的Response信息后,会对信息进行相应处理,然后展示。
Request 中包含什么?
(1)请求方式
主要有GET、POST两种类型,另外还有HEAD、PUT、DELETE、OPTIONS等。
(2)请求URL
URL全称统一资源定位符,如一个网页文档、
一张图片、一个视频等都可以用URL唯一来确定。
(3)请求头
包含请求时的头部信息,如User-Agent、Host、Cookies等信息。
(4)请求体
请求时额外携带的数据
如表单提交时的表单数据
也为了方便同学笔记:
4.Response 中包含什么?
Response
5.能抓怎样的数据?
网页文本:如HTML文档、Json格式文本等。
图片:获取到的是二进制文件,保存为图片格式。
视频:同为二进制文件,保存为视频格式即可。
其他:只要是能请求到的,都能获取。
6.怎样来解析?
解析方式
7.为什么我抓到的和浏览器看到的不一样?
有些网站是用动态加载的,例如:Ajax、JavaScript等方法进行渲染;
所以,我们看到的页面是经过渲染的页面,而我们用库直接发送的url请求是未经过渲染的代码,有许多调用JavaScript的代码。
8.怎样解决 JavaScript 渲染的问题?
分析Ajax请求
Selenium/WebDriver
Splash :
官方文档:https://splash.readthedocs.io/en/stable/
GitHub:https://github.com/scrapinghub/splash
PyV8、Ghost.py
9.可以怎样保存数据?
文本:纯文本、Json、Xml等。
关系型数据库:如MySQL、Oracle、SQL Server等具有结构化表结构形式存储。
非关系型数据库:如MongoDB、Redis等Key-Value形式存储。
二进制文件:如图片、视频、音频等等直接保存成特定格式即可。
最后聊一句:现在的网络爬虫大体可以分为四类:全网爬虫,主题爬虫,增量式爬虫和深层爬虫。
下一篇,我将继续带你了解爬虫一些理解与形式!
领取专属 10元无门槛券
私享最新 技术干货