我最近开始使用Jupyter Lab,我的问题是我使用的是相当大的数据集(通常数据集本身大约。计算机内存的1/4 )。经过几次转换,保存为新的Python对象后,我往往会耗尽内存。问题是,当我接近可用的RAM限制并执行任何需要另一个RAM空间的操作时,我的计算机就会死机,唯一的解决方法就是重新启动它。这是Jupyter Lab/Notebook的默认行为,还是我应该设置的一些设置?通常,我预计程序会崩溃(例如在RStudio中),而不是整个计算机崩溃
发布于 2019-10-22 22:00:36
对于这个问题,最健壮的解决方案绝对是使用Docker容器。您可以指定将多少内存分配给Jupyter,如果容器耗尽内存,这根本不是什么大问题(只需记住经常保存,但这是不言而喻的)。
This blog会带你走完大部分的路。这里还有一些关于设置Jupyter Lab的说明,这些说明来自免费提供的、官方维护的Jupyter镜像:
https://medium.com/fundbox-engineering/overview-d3759e83969c
然后,您可以将本教程中所述的docker run命令修改为(例如,对于3 3GB):
docker run --memory 3g <other docker run args from tutorial here>有关坞站内存选项的语法,请参阅以下问题:
https://stackoverflow.com/questions/58400437
复制相似问题