首页
学习
活动
专区
工具
TVP
发布
社区首页 >问答首页 >pyspark数据倾斜?

pyspark数据倾斜?

提问于 2021-05-23 09:33:22
回答 0关注 0查看 124

想请教大佬们,单机上用pyspark跑任务,CPU利用率只有不到一半,是什么原因呢。似乎一开始一小段时间有达到近百分百利用率,之后就降下来了,程序没用到shuffle算子,应该不是数据倾斜问题。

回答

和开发者交流更多问题细节吧,去 写回答
相关文章

相似问题

相关问答用户
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档