黑魔法, 也是黑科技
老板:"你听说过ClickHouse吗?简称叫CK!!!"
我:"听说过,不是个内裤品牌吗?谁没听说过?你想干什么?!!"
老板:"不是内裤!!是一款OLAP数据库,给你看,这是它的测试报告"
我:"假的吧,单机性能就这么高?怎么可能!!!"
老板:"不信你自己试试!!"
一番捣鼓之后
我:"。。。。。。。"
颠覆三观、陷入无限思考,心中只有三个字:
这是什么鬼!!
上述是我的一段亲身经历。
很多初识CH的人,内心都会经历这么几个阶段:
相遇,会被它那惊叹的性能所吸引;
疑惑,开始质疑它的真实性;
困惑,在亲自论证了可靠性后,身体虽然是相信了,但内心依然觉得不可思议,不明就里。
于是乎,为什么ClickHouse这么快? 渐渐成了一个不解之谜。
作为一个拥有ClickHouse信仰标签的忠实粉丝,我自然也是追寻谜底的一份子。在我苦苦寻觅许久之后,今天,终于被我找到了答案。所以特地拿来与各位分享,谜底就在下面:
翻译过来的意思是:
这是纯魔法,是由前苏联科学家提供的技术.
他们曾经用来制造火箭.
看到没?!这就是ClickHouse的黑魔法。
好吧,这其实是我今天刚看到的一则笑话,来自于中科院计算所博士,郑天祺 (Amos Bird),同时他也是一名ClickHouse的Committer。
虽然刚才的谜底是假的,但疑问是真真切切存在的,为什么ClickHouse这么快?
已经有很多人,对这个问题做出过科学合理的解释。
比如有人说,因为ClickHouse是列存数据库,所以快;
也有人说,因为ClickHouse使用了向量化引擎,所以快。
这些解释都站得住脚,但是依然不能消除我的疑问。因为这些技术并不是秘密,世面上有很多数据库同样使用了这些技术,但是依然被ClickHouse秒杀呀?
所以,今天我想从另外一个角度,来探讨一下ClickHouse的黑魔法,它到底是什么。
要找到问题的谜底,其实有一个很简单的办法,那就是听听作者们自己是怎么说的呗。
画外音:"说的轻巧,去哪里找作者倾诉呢?"
所以说,勤奋的人们总是容易被幸运眷顾,你看这不: 恰好,在2019的年末,在北京举行了 中国大数据技术大会(BDTC 2019);
恰好又,这个大会邀请了 ClickHouse项目的创始人兼开源社区创始人,Alexey Milovidov;
恰恰好又,Alexey Milovidov 在大会上做了一次主题分享;
恰恰恰好又,这个分享主题就叫做 The Secrets of ClickHouse Performance Optimizations。
各位说说,怎么就这么巧呢?简直做梦都要笑醒的节奏啊。
既然作者已经做了分享,那我就从这次分享出发,对ClickHouse的黑魔法做一番分析总结吧。(文末会附上Alexey Milovidov的分享视频)
开篇伊始,Alexey Milovidov就抛出了一个灵魂的质问:
做设计的原则,到底应该是 自顶向下 的去设计,还是应该 自下而上 的去设计 ?
在传统观念中,或者说在我的观念中,自然是 自顶向下的,做架构设计首先自然做的是顶层设计:
而ClickHouse的设计,则采用了 自下而上。
ClickHouse的原型系统早在2008年就诞生了(有机会可以专门写一篇,聊聊关于ClickHouse的诞生历程),在诞生之初,它并没有宏伟的规划。相反,它的目的很单纯,就是希望能以最快的速度进行GROUP BY查询和过滤。
他们是如何实践 自下而上 设计的呢?
着眼硬件,先想后做
从硬件功能层面着手设计,在设计伊始,就至少需要想清楚这么几个问题:
如果你能想清楚上面的问题,那么在动手实现功能之前,就已经能够计算出粗略的性能了。
所以,基于将硬件功效最大化的目的,ClickHouse会在内存中进行GROUP BY,并且使用HashTable装载数据。于此同时,他们非常在意CPU L3级别的缓存,因为一次L3 cache miss会带来70~100纳秒的延迟。这意味着,在单核CPU上,它会浪费4000万/每秒的运算;而在一个32线程的CPU上,则可能会浪费5亿/每秒的运算。
所以别小看这些细节,一点一滴的将它们累加起来,数据是非常可观的。也正因为注意了这些细节,所以ClickHouse在基准查询中,能做到1.75亿/每秒的数据扫描性能。
算法在前,抽象在后
最近常听人念叨,"有时候,选择比努力更重要"。 确实,路线选错了,再努力也是白搭。
在ClickHouse的底层实现中,经常会面对这些场景:字符串子串查询;数组排序;使用HashTable等。
如何才能在实现性能的最大化呢?算法的选择是重中之重!!!
以字符串为例,有一本专门讲解字符串搜索的书,叫做 "Handbook of Exact String Matching Algorithms",这本书列举了35种常见的字符串搜索算法,你猜ClickHouse使用了其中的哪一种?
一种都没用!! 为什么?因为性能不够快。
在字符串搜索方面,针对不同的场景,ClickHouse最终选择了这些算法:
对于常量,使用Volnitsky算法;
对于非常量,使用CPU的向量化执行SIMD,暴力优化;
正则匹配使用re2和hyperscan算法。
勇于尝鲜,不行就换
除了字符串之外,其余的场景也与它类似,ClickHouse会使用最合适、最快的算法。如果世面上出现了,号称性能强大的新算法,他也会将其纳入,进行验证。如果效果可行,就保留使用;如果性能不尽人意,就将其抛弃。
特定场景,特殊优化
针对在同一个场景的,不同的状况,选择使用不同的实现方式,尽可能的将性能最大化。关于这一点,其实在刚才介绍字符串查询时候,针对不同场景,选择不同的算法就能体现了。类似的例子还有很多,例如去重计数uniqCombined函数,根据数据量的不同,会选择不同的算法:
当数据量较小的时候,会选择Array保存;
当数据量中等时候,则会选择HashSet;
而当数据量很大的时候,则使用HyperLogLog算法。
包括对于数据结构比较清晰的场景,会通过代码生成技术,实现循环展开,以减少循环次数。
还包括大家熟知的大杀器,向量化执行了。SIMD被广泛的应用于文本转换、数据过滤、数据解压和JSON转换等场景。利用寄存器暴力优化,相较于单纯的使用CPU而言,也算是一种降维打击了。
持续测试,持续改进
如果只是单纯的,在上述的细节上下功夫,还不足以构建出如此强大的ClickHouse,这里还需要拥有一个能够持续验证、持续改进的机制。由于Yandex的天然优势,ClickHouse经常会使用真实的数据做测试,这一点很好的保证了测试场景的真实性。于此同时,ClickHouse也是我见过发版速度最快的开源软件了,差不多每个月都能发布一个版本,没有一个可靠的持续集成环境,这一点也是做不到的。也正因为拥有这样的发版频率,他们能够快速迭代、快速改进。
好了,上述这些,就是我对Alexey Milovidov这次分享的一些总结和个人理解了。
最后,就以ClickHouse的口号,作为结束吧:
The ClickHouse Style:
As efficient as possible
As fast as possible
正如口号所言,他们做到了。
所以,ClickHouse的黑魔法并不是一项单一的技术,而是一种自底向上的,追求极致性能的设计思路。
查看阅读原文,即可找到分享视频地址。
本文分享自 ClickHouse的秘密基地 微信公众号,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文参与 腾讯云自媒体同步曝光计划 ,欢迎热爱写作的你一起参与!