在SELECT中,HAVING子句没有按所有非聚集列进行分组,我经常遇到这样的表,这些表包含一个id列和一个month列以及许多其他指标。我根据其他列剔除某些行。我只想识别拥有所有12个月数据的id,所以我执行以下操作: create table t as FROM T1
GROUP BY idHAVING COUNT
我陷入了一个非常奇怪的境地。例如,我有一个包含这三个JSON的文件。然后,我使用df.createOrReplaceTempView("TEST")和给定的spark.sql("select count(*) from TEST)创建了一个临时视图
我想要获得ID为123ID的所有记录的计数,但我想忽略"REGULAR_DUMMY"行。这意味着,计数(*)应该是上述情