我正在运行一台Linux服务器,广泛的用户可以访问,而且(由于我的上游Internet提供商已经制定了一些策略),我需要将用户可以传输的总数据量限制在一定数量之内。Linux盒是我的提供者的网关。有办法这样做吗?
如果这有帮助的话,我已经在盒子上安装了一个工作的iptables,并且我有一些配置类似HTB的东西的经验。我过去所做的设置的问题是,它们限制用户使用特定的比特率(例如,20 20kbps),而不是在更长的时间内(例如100 of /天)的总传输量。
我有一台上网速度慢的电脑。当试图安装一个大约500 to的包(conda install -c pytorch pytorch)时,我会得到一个下载超时。
我尝试将该文件手动下载到其他地方,然后将其放在我的主目录中并使用conda install --offline ~/pytorch-1.0.0-py3.7_cuda9.0.176_cudnn7.4.1_1.tar.bz2进行安装(如这里)。然而,当我试图安装更多依赖于它的软件包时,conda决定下载它:
The following packages will be UPDATED:
pytorch: 1.0.0-py
嗨,这是个问题,可能是多余的,但我有预感
但我的问题是:我正在寻找某种方法,每周通过只有中等速度的互联网连接,将大型虚拟磁盘驱动器从服务器上迁移一次,这种解决方案必须能够限制带宽,因为互联网连接总是在使用中。
我考虑过这个问题,问题是熟悉的:可以移动的大型文件,也可以被节流,可以很容易地存活下来,断开/重新连接/大等等--我所熟悉的唯一解决方案就是torrents。
是否有一种方法可以从战略上自动制造急流,并自动将它们“发送”到远程客户端下载列表?我在Windows主机上工作,但是我只对客人使用Linux,我可以很容易地做一个客人来做拷贝,所以把它看作是一个windows或linux问题。
P