前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >org.apache.hadoop.mapred.YarnChild: GC overhead limit

org.apache.hadoop.mapred.YarnChild: GC overhead limit

作者头像
shengjk1
发布2018-10-24 15:21:34
1.8K0
发布2018-10-24 15:21:34
举报
文章被收录于专栏:码字搬砖码字搬砖

记录一次错误:

环境:CDH5.10 jdk8

hive query 时,报错org.apache.hadoop.mapred.YarnChild: Error running child : java.lang.OutOfMemoryError: GC overhead limit exceeded at org.apache.hadoop.io.Text.setCapacity(Text.java:268) at org.apache.hadoop.io.Text.set(Text.java:224) at org.apache.hadoop.io.Text.set(Text.java:214)

一般会有下面几种情况: 1.map/reduce的内存不足 2.client 的heap不足 client hive heap(一般是发生mapjoin时导致的) 3.opts(mapreduce.map/reduce.java.opts不足,但是堆内存必须小于memory的大小)

调大相应的参数即可解决。 如:

代码语言:javascript
复制
<property>
    <name>mapreduce.map.java.opts.max.heap</name>
    <value>983</value>
</property>
<property>
    <name>mapreduce.reduce.java.opts.max.heap</name>
    <value>983</value>
</property>

或者

代码语言:javascript
复制
set mapreduce.map.java.opts=-Xmx2g

备注: 1. mapreduce.map/reduce.memory.mb 默认是0,不是不限制memory的大小,而是 The amount of memory to request from the scheduler for each map task. If this is not specified or is non-positive, it is inferred from mapreduce.map.java.opts and mapreduce.job.heap.memory-mb.ratio. If java-opts are also not specified, we set it to 1024. 2. CDH mapreduce.map/reduce.java.opts.max.heap 默认是0,不是不限制,而是默认状态下的大小是依据mapreduce.map/reduce.memory.mb 大小 3. CDH有mapreduce.map.java.opts.max.heap而apache hadoop并没有这个参数,却有mapreduce.map.java.opts, mapreduce.map.java.opts会覆盖掉 mapreduce.map.java.opts.max.heap

4.还会看到mapred.map/reduce.child.java.opts

这里写图片描述
这里写图片描述
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017年06月30日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
专用宿主机
专用宿主机(CVM Dedicated Host,CDH)提供用户独享的物理服务器资源,满足您资源独享、资源物理隔离、安全、合规需求。专用宿主机搭载了腾讯云虚拟化系统,购买之后,您可在其上灵活创建、管理多个自定义规格的云服务器实例,自主规划物理资源的使用。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档