我正在尝试流式爬行数据从公共爬虫,但亚马逊s3错误时,我使用stream=True
参数来获取请求。下面是一个示例:
resp = requests.get(url, stream=True)
print(resp.raw.read())
当我在Common Crawl s3 http url上运行它时,我得到了响应:
b'<?xml version="1.0" encoding="UTF-8"?>\n<Error><Code>NoSuchKey</Code>
<Message>The specified key does not exist.</Message><Key>crawl-data/CC-
MAIN-2018-05/segments/1516084886237.6/warc/CC-
MAIN-20180116070444-20180116090444-00000.warc.gz\n</Key>
<RequestId>3652F4DCFAE0F641</RequestId><HostId>Do0NlzMr6
/wWKclt2G6qrGCmD5gZzdj5/GNTSGpHrAAu5+SIQeY15WC3VC6p/7/1g2q+t+7vllw=
</HostId></Error>'
我使用的是warcio,需要一个流文件对象作为存档迭代器的输入,由于内存有限,无法一次性下载所有文件。我该怎么办?
发布于 2018-02-26 05:58:00
您的url中有一个错误。比较您得到的响应中的键:
<Key>crawl-data/CC-
MAIN-2018-05/segments/1516084886237.6/warc/CC-
MAIN-20180116070444-20180116090444-00000.warc.gz\n</Key>
指向目标url中的url:
https://commoncrawl.s3.amazonaws.com/crawl-data/CC-MAIN-2018-05/segments/1516084886237.6/warc/CC-MAIN-20180116070444-20180116090444-00000.warc.gz
由于某些原因,您添加了不必要的空格,这些空格可能是在读取文件时拾取的(readline()
将在每行显示'\n‘个尾随字符)。也许可以尝试调用.strip()
来删除尾随的换行符。
https://stackoverflow.com/questions/48978724
复制相似问题