专栏首页抠抠空间信号(Django信号、Flask信号、Scrapy信号)

信号(Django信号、Flask信号、Scrapy信号)

简介

Django、Flask、scrapy都包含了一个“信号分配器”,使得当一些动作在框架的其他地方发生的时候,解耦的应用可以得到提醒。

通俗来讲,就是一些动作发生的时候,信号允许特定的发送者去提醒一些接受者,这是特别有用的设计因为有些代码对某些事件是特别感兴趣的,比如删除动作。

下面,分别介绍一下三种信号的使用示例。

Django信号

很多数情况下,我们需要在操作数据库之前或者之后做某些操作,比如说写个日志之类的,我们当然可以找到每一个sql语句,在其前后加一段代码,

但是,这不但浪费时间,还为以后的维护增加了难度,这个时候,就体现出信号的作用了。下面的代码是Django中对数据库增加一条数据的操作:

# models.py

from django.db import models

class User(models.Model):
    title = models.CharField(max_length=32)


# views.py

from django.shortcuts import render,HttpResponse
from app01 import models

def func1(request):
    models.User.objects.create(title='付勇')
    return HttpResponse('创建成功')

def func2(request):
    models.User.objects.create(title='小男孩')
    return HttpResponse('创建成功')

def func3(request):
    models.User.objects.create(title='小少年')
    return HttpResponse('创建成功')

def func4(request):
    models.User.objects.create(title='小青年')
    return HttpResponse('创建成功')

 这个时候,如果我们想要在每增加一条数据之后在控制台打印一句话(当然可以换成其他操作)的话,就可以在项目下的__init__.py中进行信号操作,代码如下:

from django.db.models import signals

def before_save1(*args,**kwargs):
    print('before_save1--->',args,kwargs)

def before_save2(*args,**kwargs):
    print('before_save2--->',args,kwargs)

def after_save1(*args,**kwargs):
    print('after_save2---->',args,kwargs)

# 在增加数据之前执行before_save1函数
signals.pre_save.connect(before_save1)

# 在增加数据之前执行before_save2函数
signals.pre_save.connect(before_save2)

# 在增加数据之后执行after_save1函数
signals.post_save.connect(after_save1)

Django中的内置信号:

Model signals
    pre_init                    # django的modal执行其构造方法前,自动触发
    post_init                   # django的modal执行其构造方法后,自动触发
    pre_save                    # django的modal对象保存前,自动触发
    post_save                   # django的modal对象保存后,自动触发
    pre_delete                  # django的modal对象删除前,自动触发
    post_delete                 # django的modal对象删除后,自动触发
    m2m_changed                 # django的modal中使用m2m字段操作第三张表(add,remove,clear)前后,自动触发
    class_prepared              # 程序启动时,检测已注册的app中modal类,对于每一个类,自动触发
Management signals
    pre_migrate                 # 执行migrate命令前,自动触发
    post_migrate                # 执行migrate命令后,自动触发
Request/response signals
    request_started             # 请求到来前,自动触发
    request_finished            # 请求结束后,自动触发
    got_request_exception       # 请求异常后,自动触发
Test signals
    setting_changed             # 使用test测试修改配置文件时,自动触发
    template_rendered           # 使用test测试渲染模板时,自动触发
Database Wrappers
    connection_created          # 创建数据库连接时,自动触发

Flask信号

项目功能复杂,代码量越大,就越需要做业务解耦。否则在其之上做开发和维护是很痛苦的,尤其是对于团队的新人。

Flask从0.6开始,通过Blinker提供了信号支持。信号就是在框架核心功能或者一些Flask扩展发生工作时所发送的通知,用于帮助你解耦应用。

如果需要在Flask中使用信号,需要先安装blinker组件:

pip install blinker

使用信号代码如下:

from flask import Flask,render_template
from flask import signals

app = Flask(__name__)

def x1(arg):
    print('x1')
def x2(arg):
    print('x2')
    
# 在发起请求之前执行x1函数
signals.request_started.connect(x1)
# 在发起请求之前执行x2函数
signals.request_started.connect(x2)


@app.route('/index')
def func():
    print('视图函数')
    return "ok"


if __name__ == '__main__':
    app.run()

Flask中内置的信号:

1. template_rendered:模版渲染完成后的信号。

2. before_render_template:模版渲染之前的信号。

3. request_started:模版开始渲染。

4. request_finished:模版渲染完成。

5. request_tearing_down:request对象被销毁的信号。

6. got_request_exception:视图函数发生异常的信号。一般可以监听这个信号,来记录网站异常信息。

7. appcontext_tearing_down:app上下文被销毁的信号。

8. appcontext_pushed:app上下文被推入到栈上的信号。

9. appcontext_popped:app上下文被推出栈中的信号

10. message_flashed:调用了Flask的`flashed`方法的信号。

Scrapy信号

Scrapy使用信号来通知事情发生。您可以在您的Scrapy项目中捕捉一些信号(使用 extension)来完成额外的工作或添加额外的功能,扩展Scrapy。

虽然信号提供了一些参数,不过处理函数不用接收所有的参数 - 信号分发机制(singal dispatching mechanism)仅仅提供处理器(handler)接受的参数。

使用的时候新建一个py文件,如ext.py,代码如下:

from scrapy import signals

class MyExtend(object):
    def __init__(self):
        pass

    @classmethod
    def from_crawler(cls, crawler):
        self = cls()
        # 爬虫启动的时候执行x1方法
        crawler.signals.connect(self.x1, signal=signals.spider_opened)
        # 爬虫启动的时候执行x2方法
        crawler.signals.connect(self.x2, signal=signals.spider_closed)

        return self

    def x1(self, spider):
        print('open')

    def x2(self, spider):
        print('close')    

Scrapy内置的信号:

engine_started

scrapy.signals.engine_started()

当scrapy引擎启动爬取时发送该信号

该信号支持返回deferreds

当信号可能会在信号spider_opened之后被发送,取决于spider的启动方式

engine_stopped

scrapy.signals.engine_stopped()

当scrapy引擎停止时发送该信号例如爬取结束

该信号支持返回deferreds

item_scraped

scrapy.signals.item_scrapped(item,response,spider)

当item被爬取,并通过Item Pipeline后没有被dropped时发送,该信号支持返回deferreds

参数:爬取到的item对象

      爬取item的spider对象

   提取item的response对象

item_dropped

scrapy.signals.item_dropped(item,exception,spider)

当item通过Item Pipeline,有些pipeline抛出DropItem异常,丢弃item时发送,该信号支持返回deferreds

参数:Item Pipeline丢弃的item

      爬取item的spider对象

   导致item被丢弃的异常,必须是DropItem的子类

spider_closed

scrapy.signals.spider_closed(spider,reason)

当某个spider被关闭时发送,该信号可以用来释放每个spider在spider_opened后占用的资源

该信号支持返回deferreds

参数:被关闭的spider对象

      描述spider被关闭的原因的字符串。如果spider是由于完成爬取而被关闭,则其为‘finished'。如果spider是被引擎的close_spider方法所关闭,则其为调用该方法时的reason参数(默认为'cancelled')。如果引擎被关闭比如输入Ctrl + C ,则为'shutdown'

spider_opened

scrapy.signals.spider_opened(spider)

当spider开始爬取时发送该信号。该信号支持返回deferreds

参数:开启的spider对象

spider_idle

scrapy.signals.spider_idle(spider)

当spider进入空闲状态时发送该信号。

空闲意味着:requests正在等待被下载

      requests被调度

      items正在item pipeline中处理

当该信号的所有处理器handler被调用后,如果spider仍然保持空闲状态,引擎将会关闭该spider。当spider被关闭后,spider_closed信号将被发送

可以在spider_idle处理器中调度某些请求来避免spider被关闭。该信号不支持返回deferreds

参数:空闲的spider对象

spider_error

scrapy.signals.spider_error(failure,response,spider)

当spider的回调函数产生错误时发送该信号

参数:以Twisted Failure对象抛出的异常

   当异常被抛出时被处理的response对象

      抛出异常的spider对象

request_scheduled

scrapy.signals.request_scheduled(request,spider)

当引擎调度一个request对象用于下载时,该信号被发送,该信号不支持返回deferreds

参数:到达调度器的request对象

   产生该request的spider对象

response_received

scrapy.signals.response_received(response,request,spider)

当引擎从downloader获取一个新的response时发送该信号,该信号不支持返回deferreds

参数:接受的response对象

   生成response的request对象

   response对应的spider对象

response_downloaded

scrapy.siganls.response_downloaded(response,request,spider)

当一个HttpResponse被下载时,由downloader发送该信号,该信号不支持返回deferreds

参数:下载的response对象

       生成response的request对象

     response对应的spider对象

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • scrapy执行流程

    人生不如戏
  • Flask之请求和响应

    人生不如戏
  • Cookie和Session

    cookie Cookie的由来 大家都知道HTTP协议是无状态的。 无状态的意思是每次请求都是独立的,它的执行情况和结果与前面的请求和之后的请求都无直接关系...

    人生不如戏
  • scrapy爬虫框架教程(二)-- 爬取豆瓣电影

    经过上一篇教程我们已经大致了解了Scrapy的基本情况,并写了一个简单的小demo。这次我会以爬取豆瓣电影TOP250为例进一步为大家讲解一个完整爬虫的流程。

    测试开发社区
  • 每天一道剑指offer-第一个只出现一次的字符

    https://www.nowcoder.com/practice/1c82e8cf713b4bbeb2a5b31cf5b0417c?tpId=13&tqId=...

    乔戈里
  • 关于JAVA你必须知道的那些事(三):继承和访问修饰符

    今天乘着还有一些时间,把上次拖欠的面向对象编程三大特性中遗留的继承和多态给简单说明一下。这一部分还是非常重要的,需要仔细思考。

    编程思录
  • Scrapy:pipeline管道的open_spider、close_spider

    新码农
  • java基础学习_面向对象(下)01_day08总结

    ============================================================================= ==...

    黑泽君
  • Scrapy框架: middlewares.py设置

    hankleo
  • 腾讯云COS开启FTP功能

    2016-06-0715:35:35 发表评论 258℃热度 我的网站一直用的是腾讯云的COS,图片、JS、CSS等静态资源都存在上面,速度比较理想。但有一个...

    timhbw

扫码关注云+社区

领取腾讯云代金券