先来回答标题所提的问题,这里的答案是列存储,下面对列存储及在列存储加速 Spark SQL 查询速度进行介绍
传统的数据库通常以行单位做数据存储,而列式存储(后文均以列存储简称)以列为单位做数据存储,如下:
列存储相比于行存储主要有以下几个优势:
当然列存储并不是在所有场景都强于行存储,当查询要读取多个列时,行存储一次就能读取多列,而列存储需要读取多次。Spark 原始支持 parquet 和 orc 两个列存储,下文的实践使用 parquet
在我的实践中,使用的 Spark 版本是 2.0.0,测试数据集包含1.18亿条数据,44G,每条数据共有17个字段,假设字段名是 f1,f2...f17。
使用 Parquet 格式的列存储主要带来三个好处
使用行存储占用 44G,将行存储转成 parquet 后仅占用 5.6G,节省了 87.2% 空间,使用 Spark 将数据转成列存储耗时4分钟左右(该值与使用资源相关)
Sql: select count(distinct f1) from tbInRow/tbInParquet
行存储耗时: 119.7s 列存储耗时: 3.4s 加速 35 倍
Sql: select count(f1) from tbInRow/tbInParquet where f1 > 10000
行存储耗时: 102.8s 列存储耗时: 1.3s 加速 78 倍
当然,上文也提到了,列存储在查询需要读取多列时并不占优势:
Sql: select f1, f2, f3...f17 from tbInRow/tbInParquet limit 1
行存储耗时: 1.7s 列存储耗时: 1.9s
列存储带来的加速会因为不同的数据,不同的查询,不同的资源情况而不同,也许在你的实践中加速效果可能不如或比我这里例子的更好,这需要我们根据列存储的特性来善用之