首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >无法从pipeline.py内部阻止Scrapy

无法从pipeline.py内部阻止Scrapy
EN

Stack Overflow用户
提问于 2019-07-30 16:56:09
回答 2查看 88关注 0票数 0

因此,我正在为我的Scrapy数据编写一个验证器,并希望爬行器在数据格式不正确时停止爬行。我正在用Pipeline.py做这件事。

我已经尝试过调用CloseSpider、close_spider和crawler._signal_shutdown(9,0) (它们已经在其他教程中使用过,但由于某些原因在pipeline.py中不起作用)。我知道爬虫不会立即完成,但上面的所有方法似乎都会产生某种错误。有没有一种直接杀死爬虫的方法?

EN

回答 2

Stack Overflow用户

发布于 2019-07-30 21:11:52

你的刮刀仍然工作,因为它的时间表,一定数量的请求和CloseSpider是为正常关闭而创建的。这意味着在crawler关闭之前,所有正在进行的请求都将被取消或完成。你给close_spider() in this way打电话了吗

票数 1
EN

Stack Overflow用户

发布于 2019-07-30 20:50:47

试着用下面的代码来杀死爬虫的进程:

代码语言:javascript
运行
复制
raise SystemExit
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/57267876

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档