首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >如何顺利地重启scrapy-redis蜘蛛?

如何顺利地重启scrapy-redis蜘蛛?
EN

Stack Overflow用户
提问于 2016-05-30 13:56:02
回答 1查看 392关注 0票数 0

我用scrapy-redis写了一个简单的爬虫来制作分布式蜘蛛。当我启动两只蜘蛛,然后把它们都杀死时,我发现了这点。redis队列只留下了‘dupfilter’队列。当我重新启动这两个爬虫时,它们根本不起作用。那么,如果蜘蛛意外死亡或崩溃,如何重新启动它们呢?

EN

回答 1

Stack Overflow用户

发布于 2016-05-30 19:45:42

如果您将SCHEDULER_PERSIST设置为False,那么当爬行器完成时,dupefilter将被清除。

然而,如果蜘蛛被杀死了(例如:点击两次Ctrl+C),情况就不会这样了。

您可以向爬行器添加一个标志来清除dupefilter (甚至是队列),例如:

代码语言:javascript
运行
复制
if self.clear_all:
    self.crawler.engine.slot.scheduler.df.clear()
    self.crawler.engine.slot.scheduler.queue.clear()
票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/37518501

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档