我运行了一些SQL命令,将Spark与集群中的Hive连接起来,但中途遇到了这个错误。知道怎么解决这个问题吗?Stopping spark context.Exception: java.lang.OutOfMemoryError thrown from the UncaughtExceptionHandler in thread "main"
我为J抄编写了一个自定义的示例程序,但是在将它添加到J抄lib/ext文件夹后,它在启动时就会崩溃。有以下错误:Dumping heap to java_pid1448.hprof ...Uncaught Exception java.lang.OutOfMemoryError: PermGen space. See log file for details. 2