Python爬虫之urllib库—进阶篇

urllib库除了一些基础的用法外,还有很多高级的功能,可以更加灵活的适用在爬虫应用中,比如,用HTTP的POST请求方法向服务器提交数据实现用户登录、当服务器检测出频繁使用同一IP而发出禁令时,如何使用代理IP来应对,如何设置超时,以及解析URL方法上的一些处理,本次将会对这些内容进行详细的分析和讲解。

POST请求

POST是HTTP协议的请求方法之一,也是比较常用到的一种方法,用于向服务器提交数据。博主先介绍进行post请求的一些准备工作,然后举一个例子,对其使用以及更深层概念进行详细的的剖析。

POST请求的准备工作

既然要提交信息给服务器,我们就需要知道信息往哪填,填什么,填写格式是什么?带这些问题,我们往下看。

同样提交用户登录信息(用户名和密码),不同网站可能需要的东西不一样,比如淘宝反爬机制较复杂,会有其它一大串的额外信息。这里,我们以豆瓣为例(相对简单),目标是弄清楚POST是如何使用的,复杂内容会在后续实战部分与大家继续分享。

抛出上面像淘宝一样需要的复杂信息,如果仅考虑用户名和密码的话,我们的准备工作其实就是要弄明白用户名和密码标签的属性name是什么,这可以通过浏览器F12查看element获取,也可以通过抓包工具Fiddler获取,fiddler的下载地址https://www.telerik.com/download/fiddler

通过浏览器F12元素查看到,邮箱/手机号标签的name="form_email", 密码的标签name="form_email",如下图红框所示。但要说明的是,两个标签的name名称并不是固定的,上面查看的name名称只是豆瓣网站定义的,不代表所有。其它的网站可能有会有不同的名称,比如name="username", name="password"之类的。因此,针对不同网站的登录,需要每次查看name是什么。

通过fiddler抓包工具也能抓到想要的内容。

博主推荐使用fiddler工具,因为爬虫就是模拟浏览器工作,fiddler会帮助我们抓取正常使用浏览器时POST请求的内容,这样我们只要把抓到的浏览器POST的信息填到爬虫程序里就ok了。另外,也可以通过fiddler抓到浏览器请求的headers,非常方便。

安装fiddler的小伙伴们注意:fiddler证书问题的坑(无法抓取HTTPs包),可以通过Tools —> Options —>HTTPS里面打勾Decrypt HTTPS traffic修改证书来解决。否则会一直显示抓取 Tunnel 信息包...

好了,完成了准备工作,我们直接上一段代码理解下。

POST请求的使用

# coding: utf-8

importurllib.request

importurllib.error

importurllib.parse

# headers信息,从fiddler上或你的浏览器上可复制下来

headers={'Accept':'text/html,application/xhtml+xml,

application/xml;q=0.9,image/webp,image/apng,

*/*;q=0.8',

'Accept-Language':'zh-CN,zh;q=0.9',

'User-Agent':'Mozilla/5.0 (Windows NT 6.3;

Win64; x64) AppleWebKit/537.36

(KHTML, like Gecko)Chrome/48.0

.2564.48 Safari/537.36'

}

# POST请求的信息,填写你的用户名和密码

value={'source':'index_nav',

'form_password':'your password',

'form_email':'your username'

}

try:

data=urllib.parse.urlencode(value).encode('utf8')

response=urllib.request.Request(

'https://www.douban.com/',data=data,headers=headers)

html=urllib.request.urlopen(response)

result=html.read().decode('utf8')

print(result)

excepturllib.error.URLErrorase:

ifhasattr(e,'reason'):

print('错误原因是'+str(e.reason))

excepturllib.error.HTTPErrorase:

ifhasattr(e,'code'):

print('错误编码是'+str(e.code))

else:

print('请求成功通过。')

正常运行结果:

推荐、评论和价格比较,以及城市独特的文化生活。">

.....

window.attachEvent('onload', _ga_init);

}

注意:复制header的时候请去掉 这一项'Accept-Encoding':' gzip, deflate, 否则会提示decode的错误。

POST请求代码分析

我们来分析一下上面的代码,与urllib库request的使用基本一致,urllib库request的基本用法可参考上篇文章Python爬虫之urllib库,这里多出了post的data参数和一些解析的内容(红色标识),着重讲解一下。

这句的意思是利用了urllib库的parse来对post内容解析,为什么要解析呢?

这是因为post内容需要进行一定的编码格式处理后才能发送,而编码的规则需要遵从RFC标准,百度了一下RFC定义,供大家参考:

Request For Comments(RFC),是一系列以编号排定的文件。文件收集了有关互联网相关信息,以及UNIX和互联网社区的软件文件。目前RFC文件是由Internet Society(ISOC)赞助发行。基本的互联网通信协议都有在RFC文件内详细说明。RFC文件还额外加入许多的论题在标准内,例如对于互联网新开发的协议及发展中所有的记录。因此几乎所有的互联网标准都有收录在RFC文件之中。

parse的urlencode方法功能是将一个字典或者有顺序的二元素元组转换成为URL的查询字符串,说白了就是按照RFC标准转换了一下格式。然后再将转换好的字符串进行utf-8的编码(encode(utf-8))转换成为二进制格式才能使用。

注:Python3.x中编码解码规则为 byte—>string—>byte的模式,其中byte—>string为解码,string—>byte为编码

代理IP

为什么要使用代理IP?因为各种反爬机制会检测同一IP爬取网页的频率速度,如果速度过快,就会被认定为机器人,但是速度过慢又会影响爬取的速度,因此,我们将使用代理IP取代我们自己的IP,这样不断更换新的IP地址就可以达到快速爬取网页而降低被检测为机器人的目的了。

同样利用urllib的request就可以完成代理IP的使用,但是与之前用到的urlopen不同,我们需要自己创建订制化的opener。什么意思呢?

urlopen就好像是opener的通用版本,当我们需要特殊功能(例如代理IP)的时候,urlopen满足不了我们的需求,我们就不得不自己定义并创建特殊的opener了。

request里面正好有处理各种功能的处理器方法,如下:

ProxyHandler, UnknownHandler, HTTPHandler,

HTTPDefaultErrorHandler, HTTPRedirectHandler,

FTPHandler, FileHandler, HTTPErrorProcessor, DataHandler

我们要用的是第一个ProxyHandler来处理代理问题

让我们看一段代码如何使用。

# coding:utf-8

importurllib.request

importurllib.error

importurllib.parse

# headers信息,从fiddler上或浏览器上可复制下来

headers={'Accept':'text/html,application/xhtml+xml,

application/xml;q=0.9,image/webp,image/apng,

*/*;q=0.8',

'Accept-Language':'zh-CN,zh;q=0.9',

'User-Agent':'Mozilla/5.0 (Windows NT 6.3;

Win64;

x64) AppleWebKit/537.36 (KHTML,

like Gecko)Chrome/48.0.2564.48

Safari/537.36'

}

# POST请求的信息

value={'source':'index_nav',

'form_password':'your password',

'form_email':'your username'

}

#代理IP信息为字典格式,key为'http',value为'代理ip:端口号'

proxy={'http':'115.193.101.21:61234'}

try:

data=urllib.parse.urlencode(value).encode('utf8')

response=urllib.request.Request(

'https://www.douban.com/',data=data,headers=headers)

#使用ProxyHandler方法生成处理器对象

proxy_handler=urllib.request.ProxyHandler(proxy)

#创建代理IP的opener实例

opener=urllib.request.build_opener(proxy_handler)

#将设置好的post信息和headers的response作为参数

html=opener.open(response)

result=html.read().decode('utf8')

print(result)

excepturllib.error.URLErrorase:

ifhasattr(e,'reason'):

print('错误原因是'+str(e.reason))

excepturllib.error.HTTPErrorase:

ifhasattr(e,'code'):

print('错误编码是'+str(e.code))

else:

print('请求成功通过。')

运行得到的结果与使用本机IP一样。

proxy={'http':'115.193.101.21:61234'}

这个代理IP数据类型为字典,如果是http协议,key值就为"http",value值应为"代理IP:端口号"的格式。

proxy_handler=urllib.request.ProxyHandler(proxy)

使用ProxyHandler方法创建proxy处理器对象

创建代理IP的opener实例,参数为proxy处理器对象

html=opener.open(response)

用代理IP的opener打开指定状态的URL信息

超时

设置超时的目的是为了防止爬取网站的时候,等待时间过长而导致效率的降低。有效的超时设置可以强制结束等待而进行下一次的爬取,下面来一段代码看如何使用。

# coding:utf-8

importurllib.request

importurllib.error

importurllib.parse

importsocket

# headers信息,从fiddler上或浏览器上可复制下来

headers={'Accept':'text/html,application/xhtml+xml,

application/xml;q=0.9,image/webp,image/apng,

*/*;q=0.8',

'Accept-Language':'zh-CN,zh;q=0.9',

'User-Agent':'Mozilla/5.0 (Windows NT 6.3;

Win64;

x64) AppleWebKit/537.36

(KHTML, like Gecko)Chrome/48.0

.2564.48 Safari/537.36'

}

# POST请求的信息

value={'source':'index_nav',

'form_password':'your password',

'form_email':'your username'

}

#代理IP为字典格式,key为'http',value为'代理ip:端口号'

proxy={'http':'115.193.101.21:61234'}

# 设置超时为2秒,单位为秒

timeout=2

try:

#设置socket超时

socket.setdefaulttimeout(timeout)

data=urllib.parse.urlencode(value).encode('utf8')

response=urllib.request.Request(

'https://www.douban.com/',data=data,headers=headers)

#使用ProxyHandler方法生成处理器对象

proxy_handler=urllib.request.ProxyHandler(proxy)

#创建代理IP的opener实例

opener=urllib.request.build_opener(proxy_handler)

#将设置好的post信息和headers的response作为参数

html=opener.open(response)

result=html.read().decode('utf8')

print(result)

excepturllib.error.URLErrorase:

ifhasattr(e,'reason'):

print('错误原因是'+str(e.reason))

excepturllib.error.HTTPErrorase:

ifhasattr(e,'code'):

print('错误编码是'+str(e.code))

exceptsocket.timeout:

print('socket超时')

else:

print('请求成功通过。')

在post和代理IP使用的基础上又增加了超时的使用,红色为变化部分。

socket.setdefaulttimeout(timeout)

设置socket超时时间,如果不设置,则会使用默认时间。

exceptsocket.timeout:

print('socket超时')

同时对socket超时timeout的错误设置了异常,timeout错误属于OSerror的子类,时间超出指定timeout就会提示socket超时。

urllib库parse

除了上面提到的urlencode方法,urllib库的parse中还有很多其它的方法可以使用,如:

urlparse:把URL解析成6个部分

:///

;

?#

urlsplit:把URL解析成5个部分

:///

?#

urlunsplit,urlunparse:进行URL的重组

还有urljoin,urldefrag等。

更多用法可以查找官方request源码,也会在后续实战例子中陆续使用介绍。

总结

主要介绍了urllib库的一些高级用法:

POST请求的准备和使用方法

代理IP的使用

超时的使用

parse解析

最后,感谢大家最近的支持和鼓励,博主会继续努力与大家分享更多实用和有趣的内容。

其实,与人分享的过程也是在提高自己,充实自己,因此博主非常喜欢与大家共同学习和进步,如果在过程中有不对或者不合理的地方,欢迎大家随时提出宝贵的意见!

本文来自企鹅号 - 全球大搜罗媒体

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏涤生的博客

系统优化总结—帮你剖析系统问题

之前组内一位大佬分享了一些关于系统性能优化方面的干货,这里我将它整理成文并且加入自己平时常用的一些工具和技巧。由于关于系统性能优化涉及的内容非常多,我会分几篇文...

18220
来自专栏文武兼修ing——机器学习与IC设计

AHB学习笔记1.AHB概述2.AHB信号3.AHB传输4.控制信号

1.AHB概述 AHB总线是一种专为高性能同步传输设计的总线,层次高于APB总线,支持以下特性: 突发传输 拆分事务 主设备单时钟周期传输 单时钟沿操作 非三态...

50290
来自专栏小白安全

web渗透思路及总结

(一)针对网站程序,不考虑服务器。 一、查找注入,注意数据库用户权限和站库是否同服。 二、查找XSS,最近盲打很流行,不管怎样我们的目的是进入后台。...

86670
来自专栏Create Sun

python 3.x 爬虫基础---http headers详解

前言    上一篇文章 python 爬虫入门案例----爬取某站上海租房图片 中有对headers的讲解,可能是对爬虫了解的不够深刻,所以老觉得这是一项特别简...

478120
来自专栏前端儿

既之前的基础,先写个简单的PHP 与数据库 的数据交流

现在先不用 css 和 javascript     先用纯 html  php  写吧。 所以那些 嵌入式 <font  size=....  什么的看看就算...

13020
来自专栏bboysoul

如何快速搭建一个蜜罐

首先下载pentbox wget https://jaist.dl.sourceforge.net/project/pentbox18realised/pen...

17420
来自专栏月色的自留地

在龙芯小本上安装Debain8.10

24760
来自专栏黑白安全

Nmap的使用

精细扫描,可以查看更详细的信息,如包含服务版本,操作系统类型,甚至还有traceroute..

19530
来自专栏美团技术团队

LsLoader——通用移动端Web App离线化方案

背景 由于JavaScript(以下简称JS)语言的特性,前端作用域拆分一直是前端开发中的首要关卡。从简单的全局变量分配,到RequireJS实现的AMD模块方...

470170
来自专栏Seebug漏洞平台

TP-LINK 远程代码执行漏洞 CVE-2017-13772 趣谈

原文地址:《A CURIOUS TALE OF REMOTE CODE EXECUTION, THE TP-LINK STORY – CVE-2017-1377...

1.6K60

扫码关注云+社区

领取腾讯云代金券