我正在从成千上万的网页上得到更新。可以有多个具有相同域的页面。我已经将DOWNLOAD_DELAY设置为1秒,这样就不会使服务器超载。Spider运行良好,但是如果有相同域的100个urls在一起,它会减慢爬行速度,因为Spider必须在每个请求之后等待1秒。 ...def start_requests(self):
for url in self.u
我正在使用python版本3.7。我使用命令pip install scrapy安装了这个包,该命令与其他依赖项一起成功安装。然后我运行命令scrapy startproject newproject,这导致一个读取'scrapy' is not recognized as an internal or external command, operable program or batch file的错误。我还在命令行上运行了命令scrapy,它给出