我试图用一个简单的抓取蜘蛛来跟踪一个链接列表,并从每个链接中删除数据,但我遇到了麻烦。在scrapy shell中,当我重新创建脚本时,它会发送新url的get请求,但是当我运行爬网时,我没有从链接中得到任何数据。我得到的唯一数据是从链接之前抓取的起始url。如何从链接中抓取数据?import scrapy
class QuotesSpider(scrapy.Spider
首先,我从网站上抓取了所有的硬币链接,并要求那些链接。但是scrapy没有串行地请求从链接list.after请求这些链接抓取数据成功,但当保存到csv文件时,它使一个完整的抓取项目后每一次都是一个空行。我期待它将从链接列表中串行请求,它不会使任何空白row.how我能做到吗?我使用的是python 3.6和scrapy版本1.5.1import scrapy
c