我正在尝试为一个模型创建一个生产数据管道。作为此管道的一部分,我以.rds文件的形式保存了一个在R环境中运行的模型。save the model coefficients现在,我想以某种方式将这些coefficients加载到Scala程序中作为Spark Dataframe,它可能看起来像这样-
val loadCoefficients = # som
我正在尝试更改Spark 1.6.0中Dataframe的列列表的类型。然而,到目前为止发现的所有示例都只允许对数据帧中的单个列(df.withColumn)或所有列进行转换:
val castedDF = filteredDf.columns.foldLeft(filteredDf)((filteredDf, c) => filteredDf.withColumn(c, col(c).cast("S