当抓取在爬行时,是否可以访问数据?我有一个脚本,它找到一个特定的关键字,并在.csv中写入关键字以及找到它的链接。但是,我必须等待抓取完成爬行,当完成时,它将实际输出.csv文件中的数据。我也试图随机改变我的用户代理,但它不起作用。如果不允许我在一个问题中回答两个问题,我将把它作为一个单独的问题发布。
#!/usr/bin/env p
我正在写一个脚本,它去特定的网站并收集信息,收集信息后,它应该保存到一个文件中的所有(它会更好,如果它保存到数据库)。我读过关于FEED EXPORT和Pipeline的文章,但是我是Python和Scrapy的新手,所以我还没有找到解决方案。import scrapy
class BrickSetSpider(<e