我使用了multiprocessing模块,它运行良好,但如果我试图将输出列表写入csv文件,则会引发一个错误:
TypeError: 'ApplyResult' object is not iterable值得注意的是,列表nodes非常大,我在这里只是举一个例子,所以多处理是必不可少的。此外,如果我的CPU中有4个核心和8个线程,我还能知道如何指定处理器的数量吗?
首先,我要声明,我知道此错误消息已多次发布。但我似乎不明白这些职位是如何适用于我的。所以我想试试运气:for i in range(1, 2): async_result = pool.apply_async(helper.Helper.transform(df.copy(), i))for item in lst:
curr
然而,在我的实现中,我不能将页面缩小到一个单数部分。('//head/link[@rel="author"]/@href').extract()xpaths既可以在我使用的Chrome插件中工作,也可以在scrapy shell中使用scrapy shellfor sel in response.xpath('//htm