首页
学习
活动
专区
工具
TVP
发布
社区首页 >问答首页 >获取PySpark中可见节点数

获取PySpark中可见节点数
EN

Stack Overflow用户
提问于 2015-02-27 23:30:16
回答 5查看 17.2K关注 0票数 23

我在PySpark中运行了一些操作,最近在我的配置(在Amazon EMR上)中增加了节点数量。但是,即使我将节点数量增加了两倍(从4个增加到12个),性能似乎没有变化。因此,我想看看新节点对Spark是否可见。

我正在调用以下函数:

代码语言:javascript
复制
sc.defaultParallelism
>>>> 2

但我认为这是在告诉我分配给每个节点的任务总数,而不是Spark可以看到的节点总数。

如何查看PySpark在集群中使用的节点数?

EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/28768642

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档