我正在从一个更大的框架中调用一个基于Scrapy
的爬虫。在爬行过程中,Scrapy
记录所有事件。抓取之后,抓取应该停止日志记录,调用框架应该接管日志记录任务,并再次打印出来。
如何阻止Scrapy
控制所有日志并将其传递回我的框架?
如何管理Python?中的多个记录器
更新:我将crawler.spider.settings.overrides['LOG_ENABLED'] = False
添加到我的爬虫中。刮痕一直在阻止我打印到标准版。
发布于 2013-12-10 15:33:13
将LOG_ENABLED
设置更改为False
。
https://stackoverflow.com/questions/20498439
复制相似问题