首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

这些方法,能够让你的Python程序快如闪电

传智播客博学谷

微信号:boxuegu-

get最新最全的IT技能

免费领取各种视频资料

讨厌 Python 的人总是会说,他们不想用 Python 的一个重要原因是 Python 很慢。而事实上,无论使用什么编程语言,特定程序的运行速度很大程度上取决于编写程序的开发人员以及他们优化程序、加快程序运行速度的技能。

那么,让我们证明那些人错了!本文将介绍如何提升 Python 程序的效率,让它们运行飞快!

计时与性能分析

在开始优化之前,我们首先需要找到代码的哪一部分真正拖慢了整个程序。有时程序性能的瓶颈显而易见,但当你不知道瓶颈在何处时,这里有一些帮助找到性能瓶颈的办法:

注:下列程序用作演示目的,该程序计算 e 的 X 次方(摘自 Python 文档):

# slow_program.py

fromdecimalimport*

defexp(x):

getcontext().prec +=2

i, lasts, s, fact, num =,,1,1,1

whiles != lasts:

lasts = s

i +=1

fact *= i

num *= x

s += num / fact

getcontext().prec -=2

return+s

exp(Decimal(150))

exp(Decimal(400))

exp(Decimal(3000))

最懒惰的「性能分析」

首先,最简单但说实话也很懒的方法——使用 Unix 的 time 命令:

~ $ time python3.8slow_program.py

realm11,058s

userm11,050s

sysm0,008s

如果你只想给整个程序计时,这个命令即可完成目的,但通常是不够的……

最细致的性能分析

另一个极端是 cProfile,它提供了「太多」的信息:

~ $ python3.8-m cProfile -stimeslow_program.py

1297functioncalls(1272 primitive calls)in11.081seconds

Ordered by: internaltime

ncalls tottime percall cumtime percall filename:lineno(function)

311.0793.69311.0793.693slow_program.py:4(exp)

10.0000.0000.0020.002

4/10.0000.00011.08111.081

60.0000.0000.0000.000

60.0000.0000.0000.000abc.py:132(__new__)

230.0000.0000.0000.000_weakrefset.py:36(__init__)

2450.0000.0000.0000.000

20.0000.0000.0000.000

100.0000.0000.0000.000:1233(find_spec)

8/40.0000.0000.0000.000abc.py:196(__subclasscheck__)

150.0000.0000.0000.000

60.0000.0000.0000.000

10.0000.0000.0000.000__init__.py:357(namedtuple)

480.0000.0000.0000.000:57(_path_join)

480.0000.0000.0000.000:59(

)

10.0000.00011.08111.081slow_program.py:1()

...

这里,我们结合 cProfile 模块和 time 参数运行测试脚本,使输出行按照内部时间(cumtime)排序。这给我们提供了大量信息,上面你看到的行只是实际输出的 10%。从输出结果我们可以看到 exp 函数是罪魁祸首(惊不惊喜,意不意外),现在我们可以更加专注于计时和性能分析了……

计时专用函数

现在我们知道了需要关注哪里,那么我们可能只想要给运行缓慢的函数计时而不去管代码的其他部分。我们可以使用一个简单的装饰器来做到这点:

deftimeit_wrapper(func):

@wraps(func)

defwrapper(*args, **kwargs):

start = time.perf_counter()# Alternatively, you can use time.process_time()

func_return_val = func(*args, **kwargs)

end= time.perf_counter()

print('. : '.format(func.__module__, func.__name__,end- start))

returnfunc_return_val

returnwrapper

接着,将该装饰器按如下方式应用在待测函数上:

@timeit_wrapper

defexp(x):

...

print(' '.format('module','function','time'))

exp(Decimal(150))

exp(Decimal(400))

exp(Decimal(3000))

得到如下输出:

~ $ python3.8slow_program.py

modulefunctiontime

__main__ .exp:0.003267502994276583

__main__ .exp:0.038535295985639095

__main__ .exp:11.728486061969306

此时我们需要考虑想要测量哪一类时间。time 库提供了 time.perf_counter 和 time.process_time 两种时间。其区别在于,perf_counter 返回绝对值,其中包括了 Python 程序并不在运行的时间,因此它可能受到机器负载的影响。而 process_time 只返回用户时间(除去了系统时间),也就是只有进程运行时间。

让程序更快

现在到了真正有趣的部分了,让 Python 程序跑得更快!我不会告诉你一些奇技淫巧或代码段来神奇地解决程序的性能问题,而更多是关于通用的想法和策略。使用这些策略,可以对程序性能产生巨大的影响,有时甚至可以带来高达 30% 的提速。

使用内置的数据类型

这一点非常明显。内置的数据类型非常快,尤其相比于树或链表等自定义类型而言。这主要是因为内置数据类型使用 C 语言实现,使用 Python 实现的代码在运行速度上和它们没法比。

使用 lru_cache 实现缓存/记忆

我在之前的博客中介绍过这一技巧,但我认为它值得用一个简单例子再次进行说明:

上面的函数使用 time.sleep 模拟了繁重的计算过程。当我们第一次使用参数 1 调用函数时,它等待了 2 秒钟后返回了结果。当再次调用时,结果已经被缓存起来,所以它跳过了函数体,直接返回结果。

使用局部变量

这和每个作用域中变量的查找速度有关。我之所以说「每个作用域」,是因为这不仅仅关乎局部变量或全局变量。事实上,就连函数中的局部变量、类级别的属性和全局导入函数这三者的查找速度都会有区别。函数中的局部变量最快,类级别属性(如 self.name)慢一些,全局导入函数(如 time.time)最慢。

你可以通过这种看似没有必要的代码组织方式来提高效率:

# Example #1

classFastClass:

defdo_stuff(self):

temp = self.value# this speeds up lookup in loop

foriinrange(10000):

...# Do something with `temp` here

# Example #2

importrandom

deffast_function():

r = random.random

foriinrange(10000):

print(r())# calling `r()` here, is faster than global random.random()

使用函数

这也许有些反直觉,因为调用函数会让更多的东西入栈,进而在函数返回时为程序带来负担,但这其实和之前的策略相关。如果你只是把所有代码扔进一个文件而没有把它们放进函数,那么它会因为众多的全局变量而变慢。因此,你可以通过将所有代码封装在 main 函数中并调用它来实现加速,如下所示:

defmain():

...# All your previously global code

main()

不要访问属性

另一个可能让程序变慢的东西是用来访问对象属性的点运算符(.)。这个运算符会引起程序使用__getattribute__进行字典查找,进而为程序带来不必要的开销。那么,我们怎么避免(或者限制)使用它呢?

# Slow:

importre

defslow_func():

foriinrange(10000):

re.findall(regex, line)# Slow!

# Fast:

fromreimportfindall

deffast_func():

foriinrange(10000):

findall(regex, line)# Faster!

当心字符串

当在循环中使用取模运算符(%s)或 .format() 时,字符串操作会变得很慢。有没有更好的选择呢?根据 Raymond Hettinger 近期发布的推文,我们只需要使用 f-string 即可,它可读性更强,代码更加紧凑,并且速度更快!基于这一观点,如下从快到慢列出了你可以使用的一系列方法:

f''# Fast!

s +' '+ t

' '.join((s, t))

'%s %s'% (s, t)

'{} {}'.format(s, t)

Template('$s $t').substitute(s=s, t=t)# Slow!

生成器本质上并不会更快,因为它们的目的是惰性计算,以节省内存而非节省时间。然而,节省的内存会让程序运行更快。为什么呢?如果你有一个大型数据集,并且你没有使用生成器(迭代器),那么数据可能造成 CPU 的 L1 缓存溢出,进而导致访存速度显著变慢。

当涉及到效率时,非常重要的一点是 CPU 会将它正在处理的数据保存得离自己越近越好,也就是保存在缓存中。读者可以看一看 Raymond Hettingers 的演讲(https://www.youtube.com/watch?v=OSGv2VnC0go&t=8m17s),其中提到了这些问题。

总结

优化的第一要义就是「不要去做」。但如果你必须要做,我希望这些小技巧可以帮助到你。然而,优化代码时一定要谨慎,因为该操作可能最终造成代码可读性变差、可维护性变差,这些弊端可能超过代码优化所带来的好处。

参考链接:https://towardsdatascience.com/making-python-programs-blazingly-fast-c1cd79bd1b32

免费资料

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20200130A07Z7X00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券