首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >spark.executor.memoryOverhead与spark.memory.offHeap.size的区别

spark.executor.memoryOverhead与spark.memory.offHeap.size的区别
EN

Stack Overflow用户
提问于 2020-04-17 11:22:30
回答 1查看 1.5K关注 0票数 1

当我在Spark configuration中搜索堆外时,有两个相关的属性(spark.executor.memoryOverheadspark.memory.offHeap.size),我不确定这两个属性之间的关系。

如果我启用了spark.memory.offHeap.enabledspark.memory.offHeap.size会成为spark.executor.memoryOverhead的一部分吗?或者这两种类型的堆外内存是独立的(因此总的堆外内存就是这两种内存的总和)

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2020-05-11 14:41:13

在这里查看我的完整答案:https://stackoverflow.com/a/61723456/6470969

简而言之:从当前的Spark版本(2.4.5)开始,如果您指定spark.memory.offHeap.size,您也应该将这部分添加到spark.executor.memoryOverhead中。例如,你设置spark.memory.offHeap.size为500M,你有spark.executor.memory=2G,那么默认的spark.executor.memoryOverheadmax(2*0.1, 384)=384M,但是你最好把memoryOverhead增加到384M+500M=884M

票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/61263618

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档