有一个我可以访问的在线HTTP目录。我已经尝试通过wget
下载所有子目录和文件。但是,问题是,当wget
下载子目录时,它会下载包含该目录中的文件列表的index.html
文件,而不下载文件本身。
有没有办法不受深度限制地下载子目录和文件(就像我想要下载的目录只是一个我想复制到计算机上的文件夹一样)。
发布于 2020-05-14 20:02:02
你可以使用lftp,如果你有更大的文件你可以添加--use-pget-n=10
到命令
lftp -c 'mirror --parallel=100 https://example.com/files/ ;exit'
发布于 2016-02-21 08:04:37
wget
是一个无价的资源,也是我自己使用的东西。但是,有时地址中的某些字符会被wget
识别为语法错误。我相信这是有解决办法的,但由于这个问题并没有特别问到wget
,我想我会为那些毫无疑问会偶然发现这个页面的人提供一个替代方案,他们不需要学习曲线就可以快速解决这个问题。
有一些浏览器扩展可以做到这一点,但大多数都需要安装下载管理器,这并不总是免费的,往往有碍观瞻,并占用大量资源。这里有一个没有这些缺点的:
"Download Master“是Google Chrome的一个扩展,非常适合从目录下载。您可以选择筛选要下载的文件类型,或下载整个目录。
https://chrome.google.com/webstore/detail/download-master/dljdacfojgikogldjffnkdcielnklkce
有关最新的功能列表和其他信息,请访问开发人员博客上的项目页面:
发布于 2019-03-06 15:09:14
您可以使用HTTP插件下载this目录中的所有文件。
https://addons.mozilla.org/en-US/firefox/addon/http-directory-downloader/
https://stackoverflow.com/questions/23446635
复制相似问题