row.getAs("day"), row.getAs[Double]("temp"))}17/08/07 11:41:13 INFO SparkContext: Created broadcast 2 from csv at Extraction_SparkSQL.scala$$anonfun$map$1.apply(Trav
我正在尝试使用Java中的Spark读取JSON文件。这是我的密码import org.apache.spark.api.java.JavaSparkContext;at org.apache.spark.sql.sources.ResolvedDataSource$.apply(ddl.scala:219)
at org
val scc = spark.read.jdbc(url,table,properties)
spark.sql(“select * from k”).show() 如果您在这里观察到@1,我们正在读取完整的表,然后@3,我们正在根据所需的查询来获取结果。在这里,读取完整的表,然后查询需要花费大量的时间。我们不能在建立连接的同时执行查询吗?如果您对此有任何先验知识,请务必帮助我。