我正在用wget从包含我需要下载的文件的URL的csv文件下载330 k科学文件。所以,我使用的命令是
wget -i all_the_urls.csv
我的文件all_the_urls.csv看起来像这样
http://dr16.sdss.org/sas/dr16/sdss/spectro/redux/v5_13_0/spectra/lite/11040/spec-11040-58456-0109.fits
http://dr16.sdss.org/sas/dr16/sdss/spectro/redux/v5_13_0/spectra/lite/11068/spec-11068-58488-0780.fits
http://dr16.sdss.org/sas/dr16/sdss/spectro/redux/v5_13_0/spectra/lite/11068/spec-11068-58488-0240.fits
...
这些文件很小,每个文件大约有250个kB。但是它们的数量太大了,如果只是一个又一个文件的话,用wget
下载它们需要几天的时间。是否有wget命令可供我同时下载多个文件?注-我的问题不是重复许多其他关于下载许多文件从同一个网站。另外,请不要建议我使用wget2
--我在安装wget2
时遇到了一些问题,我在这里寻找其他解决方案。
这可能是相关的,我的互联网连接是~550 MB/秒,当文件下载1乘1,他们的下载速度显示为150 kB/秒,这是微不足道的比较。因此,关于带宽,一次下载多个文件是有意义的(至少我想是这样的)。
您还能告诉我如何执行以下一种可能的备选方案:
.fits
,包含3个表。实际上,我只需要第一张桌子在每一张。因此,如果我可以使wget
访问并只下载第一个表(最好将所有第一个表附加到一个大文件/表中),那么这也可以节省时间。任何建议或想法
发布于 2021-11-24 17:19:42
您可以使用parallel
。它可以在大多数Linux发行版中使用。
-jN
意味着N个并行程序将运行。您可以将其调到类似于-j8
或更多的内容。
cat url-list | parallel -j8 wget {}
或者另一种
cat url-list | parallel -j8 wget ' ' {}
cat
正在读取带有要下载的URL的文件。我的档案看起来很像:
https://XXX/all/Packages/a/abrt-2.10.9-20.el8.x86_64.rpm
https://XXX/all/Packages/a/abrt-addon-vmcore-2.10.9-20.el8.x86_64.rpm
...
然后,输出通过管道传送到负责旋转多个wget的并行(-jN决定了多少)。{}
是管道输入行。
https://unix.stackexchange.com/questions/678915
复制相似问题