scala.collection.mutable.ArrayBuffer不能强制转换为java.lang.Double (Spark)。
在Spark中,scala.collection.mutable.ArrayBuffer是Scala中的可变数组,而java.lang.Double是Java中的Double类型。由于Scala和Java是两种不同的编程语言,它们的类型系统是不兼容的,因此不能直接将scala.collection.mutable.ArrayBuffer转换为java.lang.Double。
要解决这个问题,可以使用Spark提供的转换函数将scala.collection.mutable.ArrayBuffer转换为java.lang.Double。例如,可以使用Spark的map函数将每个元素转换为Double类型:
val arrayBuffer: scala.collection.mutable.ArrayBuffer[Double] = ???
val doubles: RDD[java.lang.Double] = sparkContext.parallelize(arrayBuffer).map(_.toDouble)
在上面的代码中,首先将scala.collection.mutable.ArrayBuffer转换为RDD(弹性分布式数据集),然后使用map函数将每个元素转换为Double类型,并最终得到RDD[java.lang.Double]类型的结果。
推荐的腾讯云相关产品:腾讯云弹性MapReduce(EMR),腾讯云云服务器(CVM),腾讯云对象存储(COS)。
更多关于腾讯云产品的详细信息,请访问腾讯云官方网站:https://cloud.tencent.com/。
没有搜到相关的文章