前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Java heap space

Java heap space

作者头像
闵开慧
发布2018-03-30 11:10:53
8230
发布2018-03-30 11:10:53
举报
文章被收录于专栏:闵开慧闵开慧

其实这样的错误有时候并不是程序逻辑的问题(当然有可能是由于程序写的不够高效,产生的内存消耗不合理而导致),而是由于同样的作业,在数据量和数据本身发生不同时就会占据不同数量的内存空间。由于hadoop的mapreduce作业的运行机制是:在jobtracker接到客户端来的job提交后,将许多的task分配到集群中各个tasktracker上进行分块的计算,而根据代码中的逻辑可以看出,其实是在tasktracker上启了一个java进程进行运算,进程中有特定的端口和网络机制来保持map 和reduce之间的数据传输,所以,这些OOM的错误,其实就是这些java进程中报出了OOM的错误。 知道了原因以后就好办了,hadoop的mapreduce作业启动的时候,都会读取jobConf中的配置(hadoop-site.xml),只要在该配置文件中将每个task的jvm进程中的-Xmx所配置的java进程的max heap size加大,就能解决这样的问题:

<property>    <name>mapred.child.java.opts</name>    <value>-Xmx1024m</value>  </property>  PS:该选项默认是200M

新版本应该是在conf/hadoop-env.sh文件中修改。默认为1000M

有时在eclipse中叶需要修改,具体如下:

原来发现是我查询时limit后面的变量形式不对,详见java中总结的一些重点那片文章)原来只要在eclipse中,Eclipse ->run -arguments 中的VM arguments 中输入-Xms512m -Xmx1024m这个参数就可以了。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 原来发现是我查询时limit后面的变量形式不对,详见java中总结的一些重点那片文章)原来只要在eclipse中,Eclipse ->run -arguments 中的VM arguments 中输入-Xms512m -Xmx1024m这个参数就可以了。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档