在运行斯坦福大学的CoreNLP 3.7.0时,我在无意中看到了以下情况:
WARNING: Parsing of sentence failed, possibly because of out of memory.
Will ignore and continue: Just a year ago , the public outrage was over
Sovaldi , a new hepatitis C drug being sold by Gilead Sciences for
$ 1,000 a pill , or $ 84,000 for a course of treatment .
我以前见过,但那是当句子分裂混乱,并给出了一个非常长的句子。我现在看到的案例,就像上面的例子,有着合理的大小,正确地分割了句子。
为什么会发生这种事,我该怎么做才能解决呢?
发布于 2017-02-06 07:01:35
虽然这不是为什么会发生这种情况的确切答案,但我通过使用64位JRE和增加可用堆来解决这个问题。我不确定您使用的是什么环境和IDE,但是要在Windows上的Eclipse中这样做,您必须做三件事:
-Xmx30G
这将最大堆设置为30 to (我不确定它是否受到物理内存的限制,因为我没有那么多),您的项目应该再次运行。要注意的是,那些之前掉下来的东西可能会被处理得相当慢。
https://stackoverflow.com/questions/41906774
复制相似问题