我想运行一条case语句,该语句根据SparkSQL中的条件运行不同的SELECT语句,但不能正确地执行语法。我的SQL语句如下所示
registerTable(sql="SELECT CASE WHEN typedKeyword > '' THEN (SELECT * FROM `temp.sdf0` WHEREoriginalKeyword
我在Google dataproc集群版本1.4和spark版本2.4.5中运行spark作业,它从GS存储桶中读取路径中具有正则表达式的文件,并获取以下错误。Exception in thread "main" org.apache.spark.sql.AnalysisException: Path does not exist: gs://<gs_path)
我有一个UDF,它比较两个字符串str_left和str_right,但是如果两者都是null,则失败。1 end as my_col但这在实践中失败了。下面是一个完整的pyspark示例,它在Spark2.4.3和Spark3.1.2中生成错误TypeError: object of type 'NoneType' h
我尝试在scala-spark代码中使用NVL2和NULLIF sparksql函数,但它不起作用。这就是我所看到的--下面的语句运行良好,并返回正确的结果
spark.sql("select columnName, NULLIF(columnName, 'abc') as status from df当我尝试在withColumn()语法中使用NULLIF、NVL2、LEAST和GR
以下是语句和错误:select day where case when length(day) <> '19' then substr(day,1,19) else day end
org.apache.spark.sql.AnalysisException:过滤表达式‘大小写时(非长度(tableName.day)= '19')然后子字符串(tableName.day,1,1