假设我有一个像这样的火花Dataset:scala> case class Event(id: Int, date: Date, name: String但是,我无法让前一个选项与Date类型一起工作。Primitive types (Int, String, etc) and Product types (case classes) are supported by importing spark.implicits
现在,我希望使用dataframe从该列中获得工作日编号(1到7),而不是使用星星之火的sql。就像下面我在python和sql中找到了一个,但在scala中没有找到。有人能帮我吗sqlContext.sql("select date_format(to_date('2017-01-01'),'W') as week")
我有一个带有DATE_KEY列的Spark临时表spark_tmp_view。我正在尝试创建一个Hive表(不将临时表写入拼花地板位置。我尝试运行的是spark.sql("CREATE EXTERNAL TABLE IF NOT EXISTS mydb.result AS SELECT * FROM spark_tmp_view PARTITIONEDBY(DATE_KEY DATE)") 我得到的错误是我试图搜索mismatche