超时设置
通过timeout参数可以设置超时的时间
认证设置
如果碰到需要认证的网站可以通过requests.auth模块实现
import requests
from requests.auth import HTTPBasicAuth
response = requests.get("http://120.27.34.24:9001/",auth=HTTPBasicAuth("user","123"))
print(response.status_code)
当然这里还有一种方式
import requests
response = requests.get("
print(response.status_code)
python学习关注我们企鹅qun: 8393 83765 各类入门学习资料免费分享哦!
异常处理
关于reqeusts的异常在这里可以看到详细内容:
http://www.python-requests.org/en/master/api/#exceptions
所有的异常都是在requests.excepitons中
Python入门必学2个重点及精髓-Requests库~正则基本使用(附源码)
从源码我们可以看出RequestException继承IOError,
HTTPError,ConnectionError,Timeout继承RequestionException
ProxyError,SSLError继承ConnectionError
ReadTimeout继承Timeout异常
这里列举了一些常用的异常继承关系,详细的可以看:
http://cn.python-requests.org/zh_CN/latest/_modules/requests/exceptions.html#RequestException
通过下面的例子进行简单的演示
import requests
from requests.exceptions import ReadTimeout,ConnectionError,RequestException
try:
response = requests.get("http://httpbin.org/get",timout=0.1)
print(response.status_code)
except ReadTimeout:
print("timeout")
except ConnectionError:
print("connection Error")
except RequestException:
print("error")
其实最后测试可以发现,首先被捕捉的异常是timeout,当把网络断掉的haul就会捕捉到ConnectionError,如果前面异常都没有捕捉到,最后也可以通过RequestExctption捕捉到。
什么是正则表达式
正则表达式是对字符串操作的一种逻辑公式,就是事先定义好的一些特定字符、及这些特定字符的组合,组成 个“规则字符”,这个“规则字符” 来表达对字符的种过滤逻辑。
正则并不是python独有的,其他语言也都有正则
python中的正则,封装了re模块
python正则的详细讲解
常用的匹配模式
w 匹配字母数字及下划线
W 匹配f非字母数字下划线
s 匹配任意空白字符,等价于[
]
S 匹配任意非空字符
d 匹配任意数字
D 匹配任意非数字
A 匹配字符串开始
Z 匹配字符串结束,如果存在换行,只匹配换行前的结束字符串
z 匹配字符串结束
G 匹配最后匹配完成的位置
匹配一个换行符
匹配一个制表符
^ 匹配字符串的开头
$ 匹配字符串的末尾
. 匹配任意字符,除了换行符,re.DOTALL标记被指定时,则可以匹配包括换行符的任意字符
[....] 用来表示一组字符,单独列出:[amk]匹配a,m或k
python学习关注我们企鹅qun: 8393 83765 各类入门学习资料免费分享哦!
[^...] 不在[]中的字符:[^abc]匹配除了a,b,c之外的字符
匹配0个或多个的表达式
匹配1个或者多个的表达式
? 匹配0个或1个由前面的正则表达式定义的片段,非贪婪方式
精确匹配n前面的表示
匹配n到m次由前面的正则表达式定义片段,贪婪模式
a|b 匹配a或者b
() 匹配括号内的表达式,也表示一个组
re.match()
尝试从字符串的起始位置匹配一个模式,如果不是起始位置匹配成功的话,match()就会返回None
语法格式:
re.match(pattern,string,flags=0)
最常规的匹配
import re
content= "hello 123 4567 World_This is a regex Demo"result = re.match('^hellosdddsdsw.*Demo/pre>,content)
print(result)
print(result.group())
print(result.span())
结果如下:
result.group()获取匹配的结果
result.span()获去匹配字符串的长度范围
泛匹配
其实相对来说上面的方式并不是非常方便,其实可以将上述的正则规则进行更改
import re
content= "hello 123 4567 World_This is a regex Demo"result = re.match("^hello.*Demo$",content)
print(result)
print(result.group())
print(result.span())
这段代码的结果和上面常规匹配的结果是一样的,但是写起来会方便很多
匹配目标
如果为了匹配字符串中具体的目标,则需要通过()括起来,例子如下:
import re
content= "hello 1234567 World_This is a regex Demo"result = re.match('^hellos(d+)sWorld.*Demo/pre>,content)
print(result)
print(result.group())
print(result.group(1))
print(result.span())
结果如下:
这里需要说一下的是通过re.group()获得结果后,如果正则表达式中有括号,则re.group(1)获取的就是第一个括号中匹配的结果
贪婪匹配
先看下面代码:
import re
content= "hello 1234567 World_This is a regex Demo"result= re.match('^hello.(d+).Demo',content)
print(result)
print(result.group(1))
这段代码的结果是
从结果中可以看出只匹配到了7,并没有匹配到1234567,出现这种情况的原因是前面的.* 给匹配掉了, .*在这里会尽可能的匹配多的内容,也就是我们所说的贪婪匹配,
如果我们想要匹配到1234567则需要将正则表达式改为:
result= re.match('^he.?(d+).Demo',content)
这样结果就可以匹配到1234567
匹配模式
很多时候匹配的内容是存在换行的问题的,这个时候的就需要用到匹配模式re.S来匹配换行的内容
import re
content = """hello 123456 world_this
my name is zhaofan
"""
result =re.match('^he.?(d+).?zhaofan/pre>,content,re.S)
print(result)
print(result.group())
print(result.group(1))
结果如下
转义
当我们要匹配的内容中存在特殊字符的时候,就需要用到转移符号,例子如下:
import re
content= "price is
5.00',content)
print(result)
print(result.group())
对上面的一个小结:
尽量使用泛匹配,使用括号得到匹配目标,尽量使用非贪婪模式,有换行符就用re.S
强调re.match是从字符串的起始位置匹配一个模式
re.search
re.search扫描整个字符串返回第一个成功匹配的结果
import re
content = "extra things hello 123455 world_this is a Re Extra things"
result = re.search("hello.?(d+).?Re",content)
print(result)
print(result.group())
print(result.group(1))
结果如下:
其实这个时候我们就不需要在写^以及$,因为search是扫描整个字符串
注意:所以为了匹配方便,我们会更多的用search,不用match,match必须匹配头部,所以很多时候不是特别方便
匹配演练
例子1:
import re
html = '''
经典老歌
经典老歌列表
一路上有你
沧海一声笑往事随风光辉岁月记事本但愿人长久
result = re.search('
(.?)',html,re.S)
print(result)
print(result.groups())
print(result.group(1))
print(result.group(2))
结果为:
re.findall
搜索字符串,以列表的形式返回全部能匹配的子串
代码例子如下:
import re
html = '''
经典老歌
经典老歌列表
一路上有你沧海一声笑往事随风光辉岁月记事本但愿人长久
results = re.findall('
(.*?)', html, re.S)
print(results)
print(type(results))
for result in results:
print(result)
print(result[0], result[1], result[2])
结果如下:
例子2:
import re
html = '''
经典老歌
经典老歌列表
一路上有你沧海一声笑往事随风光辉岁月记事本但愿人长久
results = re.findall('
s?()?(w+)()?s?
',html,re.S)
print(results)
for result in results:
print(result[1])
结果如下:
其实这里我们就可以看出
s*? 这种用法其实就是为了解决有的有换行,有的没有换行的问题
()? 这种用法是因为html中有的有a标签,有的没有的,?表示匹配一个或0个,正好可以用于匹配
re.sub
替换字符串中每一个匹配的子串后返回替换后的字符串
re.sub(正则表达式,替换成的字符串,原字符串)
例子1
import re
content = "Extra things hello 123455 World_this is a regex Demo extra things"
content = re.sub('d+','',content)
print(content)
结果会将数字替换为为空:
例子2,在有些情况下我们替换字符的时候,还想获取我们匹配的字符串,然后在后面添加一些内容,可以通过下面方式实现:
import re
content = "Extra things hello 123455 World_this is a regex Demo extra things"
content = re.sub('(d+)',r'� 7890',content)
print(content)
结果如下:
这里需要注意的一个问题是�是获取第一个匹配的结果,为了防止转义字符的问题,我们需要在前面加上r
re.compile
将正则表达式编译成正则表达式对象,方便复用该正则表达式
import re
content= """hello 12345 world_this
fan
"""
pattern =re.compile("hello.*fan",re.S)
result = re.match(pattern,content)
print(result)
print(result.group())
正则的一个整体联系
获取豆瓣网书籍的页面的书籍信息,通过正则实现
import requests
import re
content = requests.get('https://book.douban.com/').text
pattern = re.compile('
(.?).?year">(.?).*?
', re.S)
results = re.findall(pattern, content)
print(results)
for result in results:
url,name,author,date = result
author = re.sub('s','',author)
date = re.sub('s','',date)
print(url,name,author,date)
结果如下
以上是全部内容,只是善于分享,不足之处请包涵!爬虫基本的原理就是,获取源码,进而获取网页内容。一般来说,只要你给一个入口,通过分析,可以找到无限个其他相关的你需要的资源,进而进行爬取。
我也写了很多其他的非常简单的入门级的爬虫详细教程,关注我们哦
注:python学习关注我们企鹅qun: 8393 83765 各类入门学习资料免费分享哦!
领取专属 10元无门槛券
私享最新 技术干货