而Spark的出现就是为了解决MapReduce计算缓慢的问题:
Spark在Hadoop生态体系中的作用
Spark可以对不同阶段,不同组建,对内存灵活配置。
本文分享自 作者个人站点/博客 前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文参与 腾讯云自媒体分享计划 ,欢迎热爱写作的你一起参与!