下面的示例代码尝试将一些case对象放入dataframe中。代码包括使用以下特征的case对象层次结构和case类的定义:
import org.apache.spark.{SparkContext, SparkConf}
import org.apache.spark.sql.SQLContext
sealed trait Some
case object AType extends Some
case object BType extends Some
case class Data( name : String, t: Some)
object Example {
def main(args: Array[String]) : Unit = {
val conf = new SparkConf()
.setAppName( "Example" )
.setMaster( "local[*]")
val sc = new SparkContext(conf)
val sqlContext = new SQLContext(sc)
import sqlContext.implicits._
val df = sc.parallelize( Seq( Data( "a", AType), Data( "b", BType) ), 4).toDF()
df.show()
}
}
在执行代码时,我不幸地遇到了以下异常:
java.lang.UnsupportedOperationException: Schema for type Some is not supported
问题
Some
)?Enumeration
,但也没有成功。(请参阅below)
Enumeration
的代码
object Some extends Enumeration {
type Some = Value
val AType, BType = Value
}
提前谢谢。我希望,最好的方法不是使用字符串。
https://stackoverflow.com/questions/32440461
复制相似问题