
k.imgur.com/r8NIv.png

我很难处理来自Spark UI的这些信息。具有最低火花混洗读取大小/记录的执行器读取混洗块所需的时间最长,如图所示。我不明白这是代码问题还是数据节点问题。
发布于 2017-03-25 10:00:11
也许这不仅仅是由混洗读取大小造成的,还有许多因素影响着混洗时间,比如partitions.You的数量可以尝试修改关于混洗的配置参数。shuffle-behavior
https://stackoverflow.com/questions/43010970
复制相似问题