我正在尝试使用spark.read来获取我的UDF中的文件数,但当我执行该程序时,它会在这一点挂起。 我正在调用dataframe的withcolumn列中的UDF。udf必须读取一个文件并返回它的计数。但它不起作用。我将一个变量值传递给UDF函数。当我删除spark.read代码并简单地返回一个数字时,它可以工作。但是spark.read不是通过UDF工作的。("The variable value is
accountBal.createOrReplaceTempView("accntBal")
" SELECT CTC_ID, ACCNT_BALPAID_THRU_DT <= CURRENT_DATE AND PAID_THRU_DT > '01/01/2000' AND PAID_THRU_DT is not null "
org.apache.spark.sql.AnalysisExceptio