前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >教程 | Requests的基本用法

教程 | Requests的基本用法

作者头像
昱良
发布2019-05-13 19:30:22
7130
发布2019-05-13 19:30:22
举报

下面我就给大家整理了Requests库的使用方法和细节。

什么是Requests

RequestsPython语言编写,基于urllib3,采用Apache2 Licensed开源协议的HTTP库。它比urllib更加方便,可以节约我们大量的工作,完全满足HTTP测试需求。是Python实现的简单易用的HTTP库。

安装也很简单:

1pip install requests

Request的语法操作

1.实例引入

 1import requests
 2response = requests.get( http://www.baidu.com/ )
 3print(response.status_code)
 4print(type(response.text))
 5print(response.text)
 6print(response.cookies)
 7
 8200
 9<class  str >
10
11# ...HTML网页源码..
12<RequestsCookieJar[]>
13

2.各种请求方式

1import requests
2
3requests.get( http://httpbin.org/get ) # 发送get请求
4requests.post( http://httpbin.org/post ) # 发送post请求,只要调用post方法,传入一个url参数
5requests.put( http://httpbin.org/put )
6requests.delete( http://httpbin.org/delete )

请求

1.基本GET请求

1import requests
2
3resp = requests.get( http://httpbin.org/get )
4print(resp.text)

2.带参数的GET请求这个我们前面有使用过,也是最常用的方法。运行成功就可以看到网页的源码了。

1import requests
2
3data = {
4    name  :  jack ,
5    age  : 20
6}
7resp = requests.get( http://httpbin.org/get , params=data)
8print(resp.text)

3.解析json传入参数只需要我们把数据生成一个字典,然后调用params参数,赋值给他就可以,是不是很方便。

1import requests
2import json
3
4resp = requests.get( http://httpbin.org/get )
5print(resp.text)
6print(resp.json())
7print(json.loads(resp.text))
8print(type(resp.json()))

可以看出Requestsjaon解析和jsonloads方法解析出来的结果是完全一样的。所以Requests可以很方便的解析json数据。

4.获取二进制数据

1import requests
2
3resp = requests.get( http://www.baidu.com/img/baidu_jgylogo3.gif )
4print(resp.content)
5print(resp.text)
6
7with open( logo.gif , wb ) as f:
8    f.write(resp.content)

运行成功我们可以看到content方法获取的图片页面源码是二进制数据,而text获取的则是字符串代码。显然获取图片这种二进制数据需要使用content方法。这样我们就保存了图片,我们可以在文件夹下看到这张图片。

5.添加headers

1import requests
2
3headers = { User-Agent : Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36 }
4resp = requests.get( http://www.baidu.com , headers=headers)
5print(resp.text)

有些网页如果我们直接去请求的话,他会查看请求的对象是不是浏览器,如果没有浏览器信息就会禁止我们爬虫的访问,这个时候我们就要给爬虫加一个headers,加一个浏览器的user-agent信息。这样我们就可以正常访问了。如果有的伙伴不知道怎么得到User-Agent,可以打开浏览器的审查元素,找到network,随便点击一个链接就可以看到User-Agent的信息了。

6.基本POST请求

1import requests
2
3data = {
4    name  :  jack ,
5    age  : 20
6}
7resp = requests.post( http://httpbin.org/post , data=data)
8print(resp.text)

一个POST必然是要有一个Form Data的表单提交的,我们只要把信息传给data参数就可以了。一个POST请求只需要调用post方法,是不是特别方便呢。如果不觉得方便的话,可以去参考urllib的使用方法。

响应

1.response属性

1import requests
2
3response = requests.get( http://www.baidu.com/ )
4print(type(response.status_code)) # 状态码
5print(type(response.text)) # 网页源码
6print(type(response.headers)) # 头部信息
7print(type(response.cookies)) # Cookie
8print(type(response.url)) # 请求的url
9print(type(response.history)) # 访问的历史记录

2.状态码判断获取这些信息只需要简单的调用就可以实现了。

 1import requests
 2
 3response = requests.get( http://www.baidu.com/ )
 4exit() if not resp.status_code == 200 else print( Sucessful )
 5Sucessful
 6
 7#如果发送了一个错误请求(一个4XX客户端错误,或者5XX服务器错误响应),我们可以通过 Response.raise_for_status() 来抛出异常:
 8
 9bad_r = requests.get( http://httpbin.org/status/404 )
10bad_r.status_code
11404
12
13bad_r.raise_for_status()
14Traceback (most recent call last):
15  File "requests/models.py", line 832, in raise_for_status
16    raise http_error
17requests.exceptions.HTTPError: 404 Client Error

好了,这篇文章我们了解了Requests库的基本语法操作,相信大家对Requests库的请求和响应已经很清楚了,大家完全可以抓取一些网页了。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-04-26,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习算法与Python学习 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1.实例引入
  • 2.各种请求方式
  • 4.获取二进制数据
  • 5.添加headers
  • 1.response属性
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档