我用的是Pyspark 我的输入数据如下所示。from pyspark.sql import Rowspark = SparkSession \spark.sql("SELECT count(col2)CNT, col2 from data GROUP BY col2 ").show() 这给出了正确<
使用Sybase ASE 15来实现这一点-我有大约大量的行(最多10mil)要定期从表中删除,但我希望保留对表中最新添加的数据的选择,以便排除直接在表上使用truncate。使用上面的delete非常慢,所以我的策略是将我想要保留的数据移动到一个临时表中,截断主表,然后再次将数据从临时表移回。,但是插入回主文