首页
学习
活动
专区
工具
TVP
发布
社区首页 >问答首页 >如何优化spark函数以将空值替换为零?

如何优化spark函数以将空值替换为零?
EN

Stack Overflow用户
提问于 2019-06-05 05:27:47
回答 1查看 95关注 0票数 1

下面是我的Spark函数,它处理DataFrame列中的空值,而不考虑它的数据类型。

代码语言:javascript
复制
  def nullsToZero(df:DataFrame,nullsToZeroColsList:Array[String]): DataFrame ={
    var y:DataFrame = df
    for(colDF <- y.columns){
      if(nullsToZeroColsList.contains(colDF)){
        y = y.withColumn(colDF,expr("case when "+colDF+" IS NULL THEN 0 ELSE "+colDF+" end"))
      }
    }
    return y
  }

    import spark.implicits._
    val personDF = Seq(
      ("miguel", Some(12),100,110,120), (null, Some(22),200,210,220), ("blu", None,300,310,320)
    ).toDF("name", "age","number1","number2","number3")
    println("Print Schema")
    personDF.printSchema()
    println("Show Original DF")
    personDF.show(false)
    val myColsList:Array[String] = Array("name","age","age")
    println("NULLS TO ZERO")
    println("Show NullsToZeroDF")
    val fixedDF = nullsToZero(personDF,myColsList)

在上面的代码中,我有一个整数类型和一个字符串类型的数据类型,这两种类型都是由我的函数处理的。但我怀疑下面这段代码,在我的函数中可能会影响性能,但不确定。

代码语言:javascript
复制
y = y.withColumn(colDF,expr("case when "+colDF+" IS NULL THEN 0 ELSE "+colDF+" end"))

有没有更优化的方法可以编写这个函数,做.withColumn()并一次又一次地重新分配DF的意义是什么?提前谢谢你。

EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/56451575

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档