首页
学习
活动
专区
工具
TVP
发布
社区首页 >问答首页 >在spark dataframe中保存双精度数据类型

在spark dataframe中保存双精度数据类型
EN

Stack Overflow用户
提问于 2019-04-01 00:13:37
回答 1查看 205关注 0票数 0

在下面的spark-scala代码中,双精度数据类型的值以不同的方式存储。虽然在表中,但所有列都是字符串类型。黑斑鹿也有同样的结果。

有人知道如何确保保存和检索精确的值吗?

谢谢

代码语言:javascript
复制
val df = Seq(("one", 1324235345435.4546)).toDF("a", "b")
df.write.mode("append").insertInto("test")
spark.sql("select * from test").show(false)
代码语言:javascript
复制
+---+---------------------+
|a  |b                    |
+---+---------------------+
|one|1.3242353454354546E12|
+---+---------------------+
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/55442861

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档