数据分析:寻找Python最优计算性能

1、场景描述

在数据统计分析过程中,求累计值(总和)是最常用的统计指标之一,市面上的各种流行数据库均支持的查询方式基本如下:

select sum(c) from table_name;

当数据量在小规模时,sum只是一瞬间的事情,让你感觉电脑真牛逼啊,我掰手指头要算半天的数,它居然可以这么快,下面是1万多条数据的字段求和,只用了8ms。

但是当数据量不断增长到一个量级时,比如说,先定个小目标:一亿条订单求总额,你可以尝试在常规的数据库上执行同样的语句需要多长时间。

在我的电脑上执行这样的查询,大约需要10s。

或者更大的量级,十亿、百亿、万亿?你一秒钟给我算出来,哈哈,电脑也算懵逼了。

采用分布式存储、分布式计算,是目前解决大规模计算的通用方法,让你吃100个馒头,估计一礼拜也吃不完,做慈善,一人一个分给班里的同学,几分钟就没了,吃不完的那个放学别走。

2、举栗说明

今天我们不讲分布式计算,先看看如何在单机上达到最优的计算性能。

以下的示例,用python语言模拟求1亿条订单金额的平均值。

大家注意:我国小学生以后的课程都有python了,在未来编程是个基本技能。

2.1 首先用传统的For Loop方式

还是一亿条数据跑分

结果:

看来也不快啊,花了十几秒,python在没有特定优化的前提下,比Java,Go语言慢了不少。

2.2 内置 sum 函数上场

不过我们知道python有内置的sum函数,是不是会快一点?让我们来试试:

结果:

不到十秒,快了一点点,但还是不理想。

2.3 神兵numpy

听说有个numpy库,可以向量化(vectorization)执行各种运算,牵到台上看看:

结果:

哎呀48毫秒,真心牛逼啊,足足快了几百倍,比Go、Java都快,不信你可以自己写个Go语言的版本对比一下。

2.3 没完

听说还有个叫numba的,看简写nb也很NB,要不把刚才的那些再跑一遍瞧瞧:

可以看出numba对For Loop的提升明显,对内置sum和numpy向量化影响不大。

来个最终对比图,一目了然(柱子越低性能越好):

3、结论:磨刀不误砍柴工

现在有些数据库为了满足OLAP的需求,已经集成了向量化处理,通过测评,的确是显著提高了数据分析统计的性能,限于篇幅,今天不在此展开了。

Python numpy库主要提供:

ndarray,速度快且空间高效的多维array,可进行向量化算术操作和更高级推广应用能力。

标准数学函数,可快速执行整个array上的数据操作,而不需要写循环:

比如说arr = np.array([[1.,2.,3.],[4.,5.,6.]]),可以进行arr * arr,arr * 0.5,1/arr等运算,这些运算都是对array中的元素做相应的计算,即向量化的操作。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20171228A0C5G800?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券