因此,我有一个表,其中有一列映射类型(键和值都是字符串)。 我想像这样编写sparksql来检查给定的键是否存在于map中。select count(*) from my_table where map_contains_key(map_column, "testKey") 我找不到任何现有的sparksql函数可以做到这一点
spark.sql("select case when type = 'KEY' then case when length(key)>0 and key not rlike '^[0-9]+@.*'then '' else case when key rlike '^[0-9]+@.*' then regexp_extract(key, '^[^@]+'
我正在尝试使用spark.read.format读取一个Oracle表,它对所有表都很有效,除了少数表中有任何数据类型为ROWID的列。:365)
at org.apache.spark.sql.execution.datasources.jdbc.JdbcUtils$$anonfun$org$apache$spark$sql$映射到spark的LongType。但是在Oracle JDBC driver中没有为ROWID<e