前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >爬虫课堂(十五)|Request和Response(请求和响应)

爬虫课堂(十五)|Request和Response(请求和响应)

作者头像
黄小怪
发布2018-05-21 17:31:51
2K0
发布2018-05-21 17:31:51
举报
文章被收录于专栏:小怪聊职场小怪聊职场

Scrapy的Request和Response对象用于爬网网站,在介绍Scrapy框架原理之前先具体讲解下Request和Response对象。

通常,Request对象在爬虫程序中生成并传递到系统,直到它们到达下载程序,后者执行请求并返回一个Response对象,该对象返回到发出请求的爬虫程序,如下图15-1所示。

图15-1

一、Request对象

一个Request对象表示一个HTTP请求,它通常是在爬虫生成,并由下载执行,从而生成Response,它的构造器方法的参数列表如下:

Request(url, callback, method='GET',headers,body,cookies,meta,encoding='utf-8',priority=0,dont_filter=False,errback)

下面依次介绍这些参数。

1、url(bytest或str类型,必选) 

此请求的网址。

2、callback(Callable类型)

Request对象请求的页面下载完成后,由该参数指定的页面解析函数被调用。如果请求未传递该参数,默认调用Spider的parse()方法。请注意,如果在处理期间引发异常,则会调用errback(见下方)。

3、method(str类型)

此请求的HTTP方法,默认为’GET’。

4、meta(dict类型)

Request的元数据字典,用于给下一个函数传递信息。把需要传递的信息赋值给这个叫meta的变量,meta只接受字典类型的赋值,把待传递的信息改成“字典”的形式,即:meta={'key1':value1,'key2':value2},如果想在下一个函数中取出value1,只需得到上一个函数的meta'key1'即可,因为meta是随着Request产生时传递的,下一个函数得到的Response对象中就会有meta,即response.meta,取value1则是value1=response.meta'key1'。

5、body(bytest或str类型)

HTTP的请求体。如果 body没有给出,则存储一个空字符串。

6、headers(dict类型)

这个请求的头。dict值可以是字符串(对于单值标头)或列表(对于多值标头)。如果 None作为值传递,则不会发送HTTP头。比如{'Cookie':None'}表示禁止发送Cookie

7、cookie(dict或list类型)

请求cookie。

8、encoding(str类型)

此请求的编码(默认为’utf-8’),此编码将用于对URL进行百分比编码,并将正文转换为str(如果给定unicode)。

9、priority(int类型)

此请求的优先级(默认为0)。调度器使用优先级来定义用于处理请求的顺序。具有较高优先级值的请求将较早执行。允许负值以指示相对低优先级。

10、dont_filter(boolean类型)

表示此请求不应由调度程序过滤。当您想要多次执行相同的请求时忽略重复过滤器时使用。小心使用它,或者你会进入爬行循环。默认为False。

11、errback(callable类型)

如果在处理请求时引发任何异常,将调用的函数。这包括失败的404 HTTP错误等页面。它接收一个Twisted Failure实例作为第一个参数。有关更多信息,请参阅使用errbacks在请求处理中捕获异常。

虽然参数很多,但除了url参数之外,其他都有默认值。一般情况下,我们只需要设置url和callback参数,代码如下:

scrapy.Request("https://www.baidu.com/",callback=self.parse_page2)

当然,在处理一些反爬问题时我们会设置其他的值,这个在后面章节详解。

二、Response对象

一个Response对象表示一个HTTP响应,Response只是一个基类,根据响应内容的不同有不同的子类:TextResponse、HtmlResponse、XmlResponse。

它的构造器方法的参数列表如下:

Response(url, status=200, headers=None, body=b'', flags=None, request)

1、url(str类型)

HTTP响应的URL。

2、status(int类型)

响应的HTTP状态,默认为200。

3、headers(dict类型)

HTTP响应的头部,dict值可以是字符串(对于单值标头)或列表(对于多值标头),可以调用get或getlist方法进行访问,如下:

代码语言:javascript
复制
 response.headers.get('Content-Type')
 response.headers.getlist('Set-Cookie')

4、body(bytes类型)

HTTP响应体,如TextResponse。

5、flags(list类型)

是一个包含属性初始值的 Response.flags列表。

6、request(Requestobject类型)

属性的初始值Response.request,这代表Request生成此响应。

三、Response响应子类

前面提到过,根据响应内容的不同有不同的子类,包括TextResponse、HtmlResponse、XmlResponse。下面以TextResponse为例详情讲解下它更多的参数。

1、TextResponse对象

class scrapy.http.TextResponse(url[, encoding, ...])

TextResponse除了标准对象之外,对象还支持以下属性:

text

响应体,如unicode。

同样response.body.decode(response.encoding),但结果是在第一次调用后缓存,因此可以访问 response.text多次,无需额外的开销。

注意:unicode(response.body)不是一个正确的方法来将响应正文体转换为unicode,而是使用系统默认编码(通常为ascii)。

encoding

包含此响应的编码的字符串。

selector

Selector对象用于在Response中提取数据,具体更加详细的内容会在后面的章节讲解。

xpath(query)

使用XPath选择器在Response中提取数据,更多内容访问爬虫课程(八)|豆瓣:十分钟学会使用XPath选择器提取需要的元素值

css(query)

使用CSS选择器在Response中提取数据,它的快捷方式为

TextResponse.selector.css(query):response.css('p')

具体更加详细的内容会在后面的章节讲解。

urljoin(url)

用于构造绝对url,当传入的url参数是一个相对地址,根据response.url计算出相应的绝对url。比如,response.url为https://www.jianshu.com/,url为p/5d19b49755f0,使用response.urljoin(url)的结果就是https://www.jianshu.com/p/5d19b49755f0。

简写为response.urljoin(url),实际上是response.urljoin(response.url, url)

同样的,Response参数也有很多,但在爬虫中使用最多的主要是最后的三个:xpath(query)、css(query) 和urljoin(url)。

实际上,这三个参数在前面的实战章节中已经使用过,现在是做一个整体回顾和整理。

四、后话

现在有了这些基础,接下来要讲的就是Scrapy的框架结构及工作原理。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018.03.17 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档