我正在使用spark-csv将数据加载到DataFrame中。我想做一个简单的查询并显示内容:
val df = sqlContext.read.format("com.databricks.spark.csv").option("header", "true").load("my.csv")
df.registerTempTable("tasks")
results = sqlContext.sql("select col from tasks");
results.show()
列似乎被截断了:
scala> results.show();
+--------------------+
| col|
+--------------------+
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-06 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:21:...|
|2015-11-16 07:21:...|
|2015-11-16 07:21:...|
+--------------------+
如何显示该列的完整内容?
发布于 2015-11-17 03:24:24
results.show(20, false)
不会截断。检查source
20
是在不带任何参数的情况下调用show()
时显示的默认行数。
发布于 2016-04-09 03:02:04
如果放入results.show(false)
,结果将不会被截断
发布于 2017-02-05 09:21:24
下面的代码有助于在不截断每列的情况下查看所有行
df.show(df.count(), False)
https://stackoverflow.com/questions/33742895
复制相似问题