首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >使用Spark - performance问题将数据帧转换为JSON

使用Spark - performance问题将数据帧转换为JSON
EN

Stack Overflow用户
提问于 2018-10-02 13:08:57
回答 1查看 206关注 0票数 0

我使用以下语句将spark的数据帧转换为json格式: val res = resultDF.toJSON.collect.mkString(",")

然而,即使对于小的数据帧,它的性能似乎也很差(对于具有一个单元的数据帧,大约10秒)。我想知道有没有办法让它更快?谢谢

EN

回答 1

Stack Overflow用户

发布于 2018-10-02 22:30:41

我不确定是不是写一个json和加载之后会更快:

代码语言:javascript
复制
df.write.json("/my_path")

然后你读了那个文件

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/52602339

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档