51Testing软件测试论坛

 找回密码
 (注-册)加入51Testing

QQ登录

只需一步,快速开始

微信登录,快人一步

手机号码,快捷登录

查看: 2987|回复: 0
打印 上一主题 下一主题

[转贴] 嫌弃Python慢,试试这几个方法?

[复制链接]
  • TA的每日心情
    擦汗
    14 小时前
  • 签到天数: 1021 天

    连续签到: 2 天

    [LV.10]测试总司令

    跳转到指定楼层
    1#
    发表于 2020-9-21 10:54:19 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
    计时与性能分析
      在开始优化之前,我们首先需要找到代码的哪一部分真正拖慢了整个程序。有时程序性能的瓶颈显而易见,但当你不知道瓶颈在何处时,这里有一些帮助找到性能瓶颈的办法:
      注:下列程序用作演示目的,该程序计算 e 的 X 次方(摘自 [url=]Python[/url] 文档):
    1.  # slow_program.py

    2.   from decimal import *

    3.   

    4.   def exp(x):

    5.       getcontext().prec += 2

    6.       i, lasts, s, fact, num = 0, 0, 1, 1, 1

    7.       while s != lasts:

    8.           lasts = s

    9.           i += 1

    10.           fact *= i

    11.           num *= x

    12.           s += num / fact

    13.       getcontext().prec -= 2

    14.       return +s

    15.   

    16.   exp(Decimal(150))

    17.   exp(Decimal(400))

    18.   exp(Decimal(3000))
    复制代码
    最懒惰的「性能分析」
      首先,最简单但说实话也很懒的方法——使用 Unix 的 time 命令:

    1. ~ $ time python3.8 slow_program.py

    2.   

    3.   real    0m11,058s

    4.   user    0m11,050s

    5.   sys     0m0,008s
    复制代码
    如果你只想给整个程序计时,这个命令即可完成目的,但通常是不够的……
      最细致的性能分析
      另一个极端是 cProfile,它提供了「太多」的信息:

    1.  ~ $ python3.8 -m cProfile -s time slow_program.py

    2.            1297 function calls (1272 primitive calls) in 11.081 seconds

    3.   

    4.      Ordered by: internal time

    5.   

    6.      ncalls  tottime  percall  cumtime  percall filename:lineno(function)

    7.           3   11.079    3.693   11.079    3.693 slow_program.py:4(exp)

    8.           1    0.000    0.000    0.002    0.002 {built-in method _imp.create_dynamic}

    9.         4/1    0.000    0.000   11.081   11.081 {built-in method builtins.exec}

    10.           6    0.000    0.000    0.000    0.000 {built-in method __new__ of type object at 0x9d12c0}

    11.           6    0.000    0.000    0.000    0.000 abc.py:132(__new__)

    12.          23    0.000    0.000    0.000    0.000 _weakrefset.py:36(__init__)

    13.         245    0.000    0.000    0.000    0.000 {built-in method builtins.getattr}

    14.           2    0.000    0.000    0.000    0.000 {built-in method marshal.loads}

    15.          10    0.000    0.000    0.000    0.000 <frozen importlib._bootstrap_external>:1233(find_spec)

    16.         8/4    0.000    0.000    0.000    0.000 abc.py:196(__subclasscheck__)

    17.          15    0.000    0.000    0.000    0.000 {built-in method posix.stat}

    18.           6    0.000    0.000    0.000    0.000 {built-in method builtins.__build_class__}

    19.           1    0.000    0.000    0.000    0.000 __init__.py:357(namedtuple)

    20.          48    0.000    0.000    0.000    0.000 <frozen importlib._bootstrap_external>:57(_path_join)

    21.          48    0.000    0.000    0.000    0.000 <frozen importlib._bootstrap_external>:59(<listcomp>)

    22.           1    0.000    0.000   11.081   11.081 slow_program.py:1(<module>)

    23.   ...
    复制代码
    这里,我们结合 cProfile 模块和 time 参数运行[url=]测试[/url]脚本,使输出行按照内部时间(cumtime)排序。这给我们提供了大量信息,上面你看到的行只是实际输出的 10%。从输出结果我们可以看到 exp 函数是罪魁祸首(惊不惊喜,意不意外),现在我们可以更加专注于计时和性能分析了……
      计时专用函数
      现在我们知道了需要关注哪里,那么我们可能只想要给运行缓慢的函数计时而不去管代码的其他部分。我们可以使用一个简单的装饰器来做到这点:

    1. def timeit_wrapper(func):

    2.       @wraps(func)

    3.       def wrapper(*args, **kwargs):

    4.           start = time.perf_counter()  # Alternatively, you can use time.process_time()

    5.           func_return_val = func(*args, **kwargs)

    6.           end = time.perf_counter()

    7.           print('{0:<10}.{1:<8} : {2:<8}'.format(func.__module__, func.__name__, end - start))

    8.           return func_return_val

    9.       return wrapper
    复制代码
    接着,将该装饰器按如下方式应用在待测函数上:
    1. @timeit_wrapper

    2.   def exp(x):

    3.       ...

    4.   

    5.   print('{0:<10} {1:<8} {2:^8}'.format('module', 'function', 'time'))

    6.   exp(Decimal(150))

    7.   exp(Decimal(400))

    8.   exp(Decimal(3000))
    复制代码
    得到如下输出:
    1.  ~ $ python3.8 slow_program.py

    2.   module     function   time   

    3.   __main__  .exp      : 0.003267502994276583

    4.   __main__  .exp      : 0.038535295985639095

    5.   __main__  .exp      : 11.728486061969306
    复制代码
    此时我们需要考虑想要测量哪一类时间。time 库提供了 time.perf_counter 和 time.process_time 两种时间。其区别在于,perf_counter 返回绝对值,其中包括了 Python 程序并不在运行的时间,因此它可能受到机器负载的影响。而 process_time 只返回用户时间(除去了系统时间),也就是只有进程运行时间。
      让程序更快
      现在到了真正有趣的部分了,让 Python 程序跑得更快!我不会告诉你一些奇技淫巧或代码段来神奇地解决程序的性能问题,而更多是关于通用的想法和策略。使用这些策略,可以对程序性能产生巨大的影响,有时甚至可以带来高达 30% 的提速。
      使用内置的数据类型
      这一点非常明显。内置的数据类型非常快,尤其相比于树或链表等自定义类型而言。这主要是因为内置数据类型使用 C 语言实现,使用 Python 实现的代码在运行速度上和它们没法比。
      使用 lru_cache 实现缓存/记忆
      我在之前的博客中介绍过这一技巧,但我认为它值得用一个简单例子再次进行说明:

    1. import functools

    2.   import time

    3.   

    4.   # caching up to 12 different results

    5.   @functools.lru_cache(maxsize=12)

    6.   def slow_func(x):

    7.       time.sleep(2)  # Simulate long computation

    8.       return x

    9.   

    10.   slow_func(1)  # ... waiting for 2 sec before getting result

    11.   slow_func(1)  # already cached - result returned instantaneously!

    12.   

    13.   slow_func(3)  # ... waiting for 2 sec before getting result
    复制代码
    上面的函数使用 time.sleep 模拟了繁重的计算过程。当我们第一次使用参数 1 调用函数时,它等待了 2 秒钟后返回了结果。当再次调用时,结果已经被缓存起来,所以它跳过了函数体,直接返回结果。
      使用局部变量
      这和每个作用域中变量的查找速度有关。我之所以说「每个作用域」,是因为这不仅仅关乎局部变量或全局变量。事实上,就连函数中的局部变量、类级别的属性和全局导入函数这三者的查找速度都会有区别。函数中的局部变量最快,类级别属性(如 self.name)慢一些,全局导入函数(如 time.time)最慢。
      你可以通过这种看似没有必要的代码组织方式来提高效率:

    1. #  Example #1

    2.   class FastClass:

    3.   

    4.       def do_stuff(self):

    5.           temp = self.value  # this speeds up lookup in loop

    6.           for i in range(10000):

    7.               ...  # Do something with `temp` here

    8.   

    9.   #  Example #2

    10.   import random

    11.   

    12.   def fast_function():

    13.       r = random.random

    14.       for i in range(10000):

    15.           print(r())  # calling `r()` here, is faster than global random.random()
    复制代码
    使用函数
      这也许有些反直觉,因为调用函数会让更多的东西入栈,进而在函数返回时为程序带来负担,但这其实和之前的策略相关。如果你只是把所有代码扔进一个文件而没有把它们放进函数,那么它会因为众多的全局变量而变慢。因此,你可以通过将所有代码封装在 main 函数中并调用它来实现加速,如下所示:

    1. def main():

    2.       ...  # All your previously global code

    3.   

    4.   main()
    复制代码
    不要访问属性
      另一个可能让程序变慢的东西是用来访问对象属性的点运算符(.)。这个运算符会引起程序使用__getattribute__进行字典查找,进而为程序带来不必要的开销。那么,我们怎么避免(或者限制)使用它呢?

    1. #  Slow:

    2.   import re

    3.   

    4.   def slow_func():

    5.       for i in range(10000):

    6.           re.findall(regex, line)  # Slow!

    7.   

    8.   #  Fast:

    9.   from re import findall

    10.   

    11.   def fast_func():

    12.       for i in range(10000):

    13.           findall(regex, line)  # Faster!
    复制代码
    当心字符串
      当在循环中使用取模运算符(%s)或 .format() 时,字符串操作会变得很慢。有没有更好的选择呢?根据 Raymond Hettinger 近期发布的推文,我们只需要使用 f-string 即可,它可读性更强,代码更加紧凑,并且速度更快!基于这一观点,如下从快到慢列出了你可以使用的一系列方法:

    1.  f'{s} {t}'  # Fast!

    2.   s + '  ' + t  

    3.   ' '.join((s, t))

    4.   '%s %s' % (s, t)  

    5.   '{} {}'.format(s, t)

    6.   Template('$s $t').substitute(s=s, t=t)  # Slow!
    复制代码
    生成器本质上并不会更快,因为它们的目的是惰性计算,以节省内存而非节省时间。然而,节省的内存会让程序运行更快。为什么呢?如果你有一个大型数据集,并且你没有使用生成器(迭代器),那么数据可能造成 CPU 的 L1 缓存溢出,进而导致访存速度显著变慢。
      当涉及到效率时,非常重要的一点是 CPU 会将它正在处理的数据保存得离自己越近越好,也就是保存在缓存中。
      总结
      优化的第一要义就是「不要去做」。但如果你必须要做,我希望这些小技巧可以帮助到你。然而,优化代码时一定要谨慎,因为该操作可能最终造成代码可读性变差、可维护性变差,这些弊端可能超过代码优化所带来的好处。


    分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
    收藏收藏
    回复

    使用道具 举报

    本版积分规则

    关闭

    站长推荐上一条 /1 下一条

    小黑屋|手机版|Archiver|51Testing软件测试网 ( 沪ICP备05003035号 关于我们

    GMT+8, 2024-9-19 23:44 , Processed in 0.069390 second(s), 23 queries .

    Powered by Discuz! X3.2

    © 2001-2024 Comsenz Inc.

    快速回复 返回顶部 返回列表