我正在用Python实现Kosaraju的强连接组件(SCC)图搜索算法。
这个程序在很小的数据集上运行得很好,但是当我在一个超大的图(超过800,000个节点)上运行它时,它会显示“分割错误”。
可能的原因是什么?谢谢!
附加信息:首先,当我在超大数据集上运行时,我得到了这个错误:
"RuntimeError: maximum recursion depth exceeded in cmp"sys.setrecursionlimit(50000)相信我,这不是一个无限循环,它在相对较小的数据上运行正确。
发布于 2012-07-07 03:19:45
我知道你已经解决了你的问题,但是对于其他阅读这篇文章的人来说,答案是:你必须增加你的操作系统为python进程分配的堆栈。
要做到这一点,取决于操作系统。在linux中,可以使用命令ulimit -s检查当前值,还可以使用ulimit -s <new_value>增加当前值。
尝试将前一个值加倍,如果它不起作用,则继续加倍,直到找到一个可行或内存不足的值。
发布于 2016-11-18 12:08:20
更新ulimit对我的Kosaraju的SCC实现起作用,方法是修复两个Python (Python segfault.谁知道呢!)和C++实现。
对于我的MAC,我找到了可能的最大via:
$ ulimit -s -H
65532发布于 2019-02-11 02:19:21
谷歌搜索找到了我的这篇文章,我没有看到下面的“个人解决方案”讨论。
我最近对Python3.7 on Windows Subsystem for Linux的恼火之处在于:在两台拥有相同Pandas库的机器上,一台给我segmentation fault,另一台报告警告。目前还不清楚哪个版本更新,但是“重新安装”pandas解决了这个问题。
我在故障机器上运行的命令。
conda install pandas更多细节:我正在运行相同的脚本(通过Git同步),两者都是带有WSL + Anaconda的Windows10机器。下面是一些屏幕截图来说明这个问题。此外,在命令行python会抱怨Segmentation fault (core dumped)的机器上,Jupyter lab每次都会简单地重新启动内核。更糟糕的是,根本没有给出任何警告。

几个月后的更新:我停止在Windows机器上托管Jupyter服务器。现在,我在Windows上使用WSL获取Linux服务器上打开的远程端口,并在远程Linux机器上运行我的所有作业。我已经有好几个月没有遇到任何执行错误了:)
https://stackoverflow.com/questions/10035541
复制相似问题