首页
学习
活动
专区
工具
TVP
发布
社区首页 >问答首页 >使用curl分块下载大文件的Python脚本

使用curl分块下载大文件的Python脚本
EN

Stack Overflow用户
提问于 2018-09-29 19:04:19
回答 1查看 285关注 0票数 0

我的研究所不允许下载超过300MB的文件,所以我想出了这个分块下载文件的技巧!现在我想简化这个任务,用python编写一个脚本!我正在使用os.system()来执行命令!

我的计划是使用这个curl --range 300000000*X-(300000000*(X+1)-1) url -o filename.partX #X是部件号

但是我不知道如何终止循环!我如何知道文件的所有可用部分都已下载!有人能帮我解决这个问题吗?

EN

回答 1

Stack Overflow用户

发布于 2018-09-29 20:14:03

# repeat download if fail to download the big file
until curl -C - -o partial_file.zip http://example.com/file.zip; do
    echo Tansfer disrupted, retrying in 10 seconds...
    sleep 10
done
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/52567746

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档