前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >scala中spark运行内存不足

scala中spark运行内存不足

作者头像
机器学习和大数据挖掘
发布2019-08-08 14:31:34
1.9K0
发布2019-08-08 14:31:34
举报
文章被收录于专栏:数据挖掘数据挖掘

bash spark-submit 在spark上跑代码的时候出现错误:

代码语言:javascript
复制
ERROR executor.Executor: Exception in task 9.0 in stage 416.0 (TID 18363)
java.lang.OutOfMemoryError: Java heap space

发现其原因竟然是运行的时候默认的内存不足以支撑海量数据,可以用 bash spark-submit --help 中查看到自己代码的运行内存,即:

代码语言:javascript
复制
--driver-memory MEM         Memory for driver (e.g. 1000M, 2G) (Default: 1024M)

本机默认为1G的内存运行程序,所以我改成8G内存运行:

代码语言:javascript
复制
bash spark-submit --driver-memory 8G --class MF字段 你的jar名字.jar

具体运行请看:

scala打包jar并在Linux下运行

查看 Linux 的内存命令为:

cat /proc/meminfo |grep MemTotal or top

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017-04-18 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档