我正在构建一个web抓取API,我的大部分抓取都是用AsyncIO协同器完成的,如下所示: do scraping
asyncio.run(b.parse_event())
这非常好,但由于我是同时刮多个网站,我最初是使用concurrent.futures.ThreadPoolExecutor来使用多个线程的擦拭但是,由于我已经实现了coroutine逻辑,所以现在不能在线程中直接使
因此,我有一个图像url列表,我想用请求库进行迭代,并将所有图像下载到一个目录中。 path = pathlib.Path('/path/to/some/directory') with open('{}/{}.png'.format(path, image_name), 'wb') as file:
for block in response.iter_con