本不想使用这个玩意,奈何看到很多地方使用,随手整理下
urllib模块提供的urlretrieve()函数,urlretrieve()方法直接将远程数据下载到本地
urlretrieve(url, filename=None, reporthook=None, data=None)。
urlopen一般常用的有三个参数:
urllib.requeset.urlopen(url,data,timeout)
url: 需要打开的网址
data:Post提交的数据
timeout:设置网站的访问超时时间
urlopen返回对象提供一些基本方法(快速请求)
read() :返回文本数据
readline():返回一行
info():表示远程服务器返回的头信息。
getcode():返回Http状态码,如果是http请求,200表示请求成功完成;404表示网址未找到。
geturl():返回请求的url。
直接用urllib.request模块的urlopen()获取页面,req的数据格式为bytes类型,需要decode()解码,转换成str类型
import urllib.request
import re
url = 'http://tieba.baidu.com/p/2460150866'
req=urllib.request.urlopen(url).read().decode()
r=re.findall(r'src="(.*?\.jpg)" pic_ext',req)
x=0
for i in r:
local='F://python/'
urllib.request.urlretrieve(i,local+ '%s.jpg' % x)
x=x+1
浏览器的模拟(需要添加headers头信息,urlopen不支持,需要使用Request)
import urllib.request
url='http://www.baidu.com'
header={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.96 Safari/537.36'}
request=urllib.request.Request(url,headers=header)
response=urllib.request.urlopen(request).read()
f=open('file1','wb')
f.write(response)
f.close()