我正在尝试创建一个通过一定数量的起始urls的爬行器,如果结果页面是正确的页面,我将生成另一个请求。问题是,如果我仍然尝试不产生第二个请求,爬行器将直接停止。如果我放弃第二个请求,就没有问题了。for player in self.hashPlayers] for url in urls:
return [scrapy.Requestprofile-player-stat-value bold
我知道在这个示例中可以直接导航到,但在我的应用程序中,我需要转到第1页,以便链接到第2页,需要从第2页链接到第3页,等等(即urls不遵循特定的模式)。import scrapy
name = "sample" "httpsfor resp in response.css('span[itemprop="text"]::text&