python 作为脚本有一个不足之处——执行效率和性能不够理想,特别是在 performance 较差的机器上,所以需要进行一定的代码优化来提高程序的执行效率。

优化通常包含两方面的内容:减小代码的体积,提高代码的运行效率

定位程序性能瓶颈

对代码优化的前提是需要了解性能瓶颈在什么地方,程序运行的主要时间是消耗在哪里,对于比较复杂的代码可以借助一些工具来定位,python 内置了丰富的性能分析工具,如 profile,cProfile 与 hotshot 等。其中 Profiler 是 python 自带的一组程序,能够描述程序运行时候的性能,并提供各种统计帮助用户定位程序的性能瓶颈。Python 标准模块提供三种 profilers:cProfile,profile 以及 hotshot。

profile 的使用非常简单,只需要在使用之前进行 import 即可。具体实例如下:

import profile def profileTest(): Total =1; for i in range(10): Total=Total*(i+1) print Total return Total if __name__ == “__main__”: profile.run(“profileTest()”)

程序的运行结果如下:

其中输出每列的具体解释如下:

  • ncalls:表示函数调用的次数;
  • tottime:表示指定函数的总的运行时间,除掉函数中调用子函数的运行时间;
  • percall:(第一个 percall)等于 tottime/ncalls;
  • cumtime:表示该函数及其所有子函数的调用运行的时间,即函数开始调用到返回的时间;
  • percall:(第二个 percall)即函数运行一次的平均时间,等于 cumtime/ncalls;
  • filename:lineno(function):每个函数调用的具体信息;

如果需要将输出以日志的形式保存,只需要在调用的时候加入另外一个参数。如 profile.run(“profileTest()”,”testprof”)。

对于 profile 的剖析数据,如果以二进制文件的时候保存结果的时候,可以通过 pstats 模块进行文本报表分析,它支持多种形式的报表输出,是文本界面下一个较为实用的工具。使用非常简单:

import pstats p = pstats.Stats(‘testprof’) p.sort_stats(“name”).print_stats()

其中 sort_stats() 方法能够对剖分数据进行排序, 可以接受多个排序字段,如 sort_stats(‘name’, ‘file’) 将首先按照函数名称进行排序,然后再按照文件名进行排序。常见的排序字段有 calls( 被调用的次数 ),time(函数内部运行时间),cumulative(运行的总时间)等。此外 pstats 也提供了命令行交互工具,执行 python – m pstats 后可以通过 help 了解更多使用方式。

对于大型应用程序,如果能够将性能分析的结果以图形的方式呈现,将会非常实用和直观,常见的可视化工具有 Gprof2Dot,visualpytune,KCacheGrind 等。

下面开始跟大家探讨一下性能优化技巧。

技巧1:改进算法,选择合适的数据结构

一个良好的算法对性能所起到的作用不言而喻,故性能改进的第一要点就是对算法的改进。在算法的时间复杂度排序上依次是:

O(1) -> O(lg n) -> O(n lg n) -> O(n^2) -> O(n^3) -> O(n^k) -> O(k^n) -> O(n!)

因此,如果能在时间复杂度排序上对算法进行一定的改进,那将会对代码性能的提高起到关键性的作用。

下面来讨论如何选择合适的数据结构

  • 字典 (dictionary) 与列表 (list)

Python 字典中使用了 hash table,因此查找操作的复杂度为 O(1),而 list 实际是个数组,在 list 中,查找需要遍历整个 list,其复杂度为 O(n),因此对成员的查找访问等操作dic要比 list 更快。

例1. 代码 dict.pyfrom time import time t = time() list = [‘a’,’b’,’is’,’python’,’jason’,’hello’,’hill’,’with’,’phone’,’test’, ‘dfdf’,’apple’,’pddf’,’ind’,’basic’,’none’,’baecr’,’var’,’bana’,’dd’,’wrd’] #list = dict.fromkeys(list,True) print list filter = [] for i in range (1000000): for find in [‘is’,’hat’,’new’,’list’,’old’,’.’]: if find not in list: filter.append(find) print “total run time:” print time()-t

上述代码运行大概需要 16.09s。如果去掉行 #list = dict.fromkeys(list,True) 的注释,将 list 转换为字典之后再运行,时间大约为 8.375s,效率大概提高了一半。因此在需要多数据成员进行频繁的查找或者访问的时候,使用 dict 更优于使用list。

  • 集合 (set) 与列表 (list)

set 的 union, intersection,difference 操作要比 list 的迭代要快。因此如果涉及到求 list 交集,并集或者差的问题可以使用set 来解决。

下面来举例对比一下:

例2. 求 list 的交集:from time import time t = time() lista=[1,2,3,4,5,6,7,8,9,13,34,53,42,44] listb=[2,4,6,9,23] intersection=[] for i in range (1000000): for a in lista: for b in listb: if a == b: intersection.append(a) print “total run time:” print time()-t

上述程序的运行时间大概为:38.407s

而使用 set 求交集:from time import time t = time() lista=[1,2,3,4,5,6,7,8,9,13,34,53,42,44] listb=[2,4,6,9,23] intersection=[] for i in range (1000000): list(set(lista)&set(listb)) print “total run time:” print time()-t

改为 set 后程序的运行时间缩减为8.75s,时间大大缩短,说明set效率更高。读者可以自行使用下表其他的操作进行测试。

set 常见用法

技巧2:对循环的优化

对循环的优化所遵循的原则:尽量减少循环过程中的计算量,有多重循环的尽量将内层的计算提到上一层。 下面举例说明:

例3. 为进行循环优化前from time import time t = time() lista = [1,2,3,4,5,6,7,8,9,10] listb =[0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9,0.01] for i in range (1000000): for a in range(len(lista)): for b in range(len(listb)): x=lista[a]+listb[b] print “total run time:” print time()-t

其运行时间约为 132.375s

现在进行优化:将长度计算提到循环外,用 xrange 代替range ,同时将第三层的计算 lista[a] 提到循环的第二层。

循环优化后from time import time t = time() lista = [1,2,3,4,5,6,7,8,9,10] listb =[0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9,0.01] len1=len(lista) len2=len(listb) for i in xrange (1000000): for a in xrange(len1): temp=lista[a] for b in xrange(len2): x=temp+listb[b] print “total run time:” print time()-t

优化后的程序的运行时间缩短为 102.171999931s。优化前 lista[a] 被计算的次数为 1000000*10*10,而在优化后的代码中被计算的次数为 1000000*10,计算次数有大幅度缩短,说明性能得到提升。

技巧3:充分利用 Lazy if-evaluation 的特性

python 中条件表达式是 lazy evaluation 的,也就是说如果存在条件表达式 if x and y,在 x 为 false 的情况下 y 表达式的值将不再计算。因此可以利用该特性在一定程度上提高程序效率。

例4. 优化前from time import time t = time() abbreviations = [‘cf.’, ‘e.g.’, ‘ex.’, ‘etc.’, ‘fig.’, ‘i.e.’, ‘Mr.’, ‘vs.’] for i in range (1000000): for w in (‘Mr.’, ‘Hat’, ‘is’, ‘chasing’, ‘the’, ‘black’, ‘cat’, ‘.’): if w in abbreviations: #if w[-1] == ‘.’ and w in abbreviations: pass print “total run time:” print time()-t

其运行时间大约为 8.84s,如果使用注释行代替第一个 if,运行的时间大约为 6.17s,时间也有所缩短。

技巧4:字符串的优化

python 中的字符串对象是不可改变的,因此对任何字符串的操作如拼接,修改等都将产生一个新的字符串对象,而不是基于原字符串,因此这种持续的 copy 会在一定程度上影响 python 的性能。对字符串的优化也是改善性能的一个重要的方面,特别是在处理文本较多的情况下。字符串的优化主要集中在以下几个方面:

  1. 在字符串连接的使用尽量使用 join() 而不是 +:在例5中使用 + 进行字符串连接大概需要 0.125 s,而使用 join 缩短为 0.016s。因此在字符的操作上 join 比 + 要快,因此要尽量使用 join 而不是 +。例5. 使用 join 而不是 + 连接字符串from time import time t = time() s = “” list = [‘a’,’b’,’b’,’d’,’e’,’f’,’g’,’h’,’i’,’j’,’k’,’l’,’m’,’n’] for i in range (10000): for substr in list: s+= substr print “total run time:” print time()-t

    同时要避免:

    s = “” for x in list: s += func(x)

    而是要使用:

    slist = [func(elt) for elt in somelist] s = “”.join(slist)

  2. 当对字符串可以使用正则表达式或者内置函数来处理的时候,选择内置函数。如 str.isalpha(),str.isdigit(),str.startswith((‘x’, ‘yz’)),str.endswith((‘x’, ‘yz’))
  3. 对字符进行格式化比直接串联读取时间要短,因此要使用out = “<html>%s%s%s%s</html>” % (head, prologue, query, tail)

    而不用

    out = “<html>” + head + prologue + query + tail + “</html>”

技巧5:使用列表解析(list comprehension)和生成器表达式(generator expression)

列表解析要比在循环中重新构建一个新的 list 更为高效,因此我们可以利用这一特性来提高运行的效率。

from time import time t = time() list = [‘a’,’b’,’is’,’python’,’jason’,’hello’,’hill’,’with’,’phone’,’test’, ‘dfdf’,’apple’,’pddf’,’ind’,’basic’,’none’,’baecr’,’var’,’bana’,’dd’,’wrd’] total=[] for i in range (1000000): for w in list: total.append(w) print “total run time:” print time()-t

使用列表解析:

for i in range (1000000): a = [w for w in list]

上述代码直接运行大概需要 17s,而改为使用列表解析后 ,运行时间缩短为 9.29s,效率提高将近一半。生成器表达式则是在 2.4 中引入的新内容,语法和列表解析类似,但是在大数据量处理时,生成器表达式的优势较为明显,它并不创建一个列表,只是返回一个生成器,因此效率较高。在上述例子上中代码 a = [w for w in list] 修改为 a = (w for w in list),运行时间缩短到 2.98s。

其他优化技巧

  1. 如果需要交换两个变量的值使用 a,b=b,a 而不是借助中间变量 t=a;a=b;b=t;
  2. 在循环的时候使用 xrange 而不是 range;使用 xrange 可以节省大量的系统内存,因为 xrange() 在序列中每次调用只产生一个整数元素。而 range() 將直接返回完整的元素列表,用于循环时会有不必要的开销。在 python3 中 xrange 不再存在,里面 range 提供一个可以遍历任意长度的范围的 iterator。
  3. 使用局部变量,避免”global” 关键字。python 访问局部变量会比全局变量要快得多,因此可以利用这一特性提高性能。
  4. if done is not None 比语句 if done != None 更快,读者可以自行验证;
  5. 在耗时较多的循环中,可以把函数的调用改为内联的方式;
  6. 使用级联比较 “x < y < z” 而不是 “x < y and y < z”;
  7. while 1 要比 while True 更快(当然后者的可读性更好);
  8. build in 函数通常较快,add(a,b) 要优于 a+b。

Python 性能优化工具

Python 性能优化除了改进算法,选用合适的数据结构之外,还有几种关键的技术,比如将关键 python 代码部分重写成 C 扩展模块,或者选用在性能上更为优化的解释器等,这些在本文中统称为优化工具。python 有很多自带的优化工具,如 Psyco,Pypy,Cython,Pyrex 等,这些优化工具各有千秋,本节选择几种进行介绍。

Psyco

psyco 是一个 just-in-time 的编译器,它能够在不改变源代码的情况下提高一定的性能,Psyco 将操作编译成有点优化的机器码,其操作分成三个不同的级别,有”运行时”、”编译时”和”虚拟时”变量。并根据需要提高和降低变量的级别。运行时变量只是常规 Python 解释器处理的原始字节码和对象结构。一旦 Psyco 将操作编译成机器码,那么编译时变量就会在机器寄存器和可直接访问的内存位置中表示。同时 python 能高速缓存已编译的机器码以备今后重用,这样能节省一点时间。但 Psyco 也有其缺点,其本身运行所占内存较大。目前 psyco 已经不在 python2.7 中支持,而且不再提供维护和更新了,对其感兴趣的可以参考

Pypy

PyPy 表示 “用 Python 实现的 Python”,但实际上它是使用一个称为 RPython 的 Python 子集实现的,能够将 Python 代码转成 C, .NET, Java 等语言和平台的代码。PyPy 集成了一种即时 (JIT) 编译器。和许多编译器,解释器不同,它不关心 Python 代码的词法分析和语法树。 因为它是用 Python 语言写的,所以它直接利用 Python 语言的 Code Object.。 Code Object 是 Python 字节码的表示,也就是说, PyPy 直接分析 Python 代码所对应的字节码 ,,这些字节码即不是以字符形式也不是以某种二进制格式保存在文件中, 而在 Python 运行环境中。

以例3的循环为例子,使用 python 和 pypy 分别运行,得到的运行结果分别如下:

C:Documents and SettingsAdministrator 桌面 docpython>pypy loop.py total run time: 8.42199993134 C:Documents and SettingsAdministrator 桌面 docpython>python loop.py total run time: 106.391000032

可见使用 pypy 来编译和运行程序可以达到提高性能的目的。

Cython

Cython 是用 python 实现的一种语言,可以用来写 python 扩展,用它写出来的库都可以通过 import 来载入,性能上比 python 的快。cython 里可以载入 python 扩展 ( 比如 import math),也可以载入 c 的库的头文件 ( 比如 :cdef extern from “math.h”),另外也可以用它来写 python 代码。将关键部分重写成 C 扩展模块

Cython 代码与 python 不同,必须先编译,编译一般需要经过两个阶段,将 pyx 文件编译为 .c 文件,再将 .c 文件编译为 .so 文件。

编译有多种方法:

  • 通过命令行编译:假设有如下测试代码,使用命令行编译为 .c 文件。def sum(int a,int b): print a+b [root@v5254085f259 test]# cython sum.pyx [root@v5254085f259 test]# ls total 76 4 drwxr-xr-x 2 root root 4096 Apr 17 02:45 . 4 drwxr-xr-x 4 root root 4096 Apr 16 22:20 .. 4 -rw-r–r– 1 root root 35 Apr 17 02:45 1 60 -rw-r–r– 1 root root 55169 Apr 17 02:45 sum.c 4 -rw-r–r– 1 root root 35 Apr 17 02:45 sum.pyx

    在 linux 上利用 gcc 编译为 .so 文件:

    [root@v5254085f259 test]# gcc -shared -pthread -fPIC -fwrapv -O2 -Wall -fno-strict-aliasing -I/usr/include/python2.4 -o sum.so sum.c [root@v5254085f259 test]# ls total 96 4 drwxr-xr-x 2 root root 4096 Apr 17 02:47 . 4 drwxr-xr-x 4 root root 4096 Apr 16 22:20 .. 4 -rw-r–r– 1 root root 35 Apr 17 02:45 1 60 -rw-r–r– 1 root root 55169 Apr 17 02:45 sum.c 4 -rw-r–r– 1 root root 35 Apr 17 02:45 sum.pyx 20 -rwxr-xr-x 1 root root 20307 Apr 17 02:47 sum.so

  • 使用 distutils 编译建立一个 setup.py 的脚本:from distutils.core import setup from distutils.extension import Extension from Cython.Distutils import build_ext ext_modules = [Extension(“sum”, [“sum.pyx”])] setup( name = ‘sum app’, cmdclass = {‘build_ext’: build_ext}, ext_modules = ext_modules ) [root@v5254085f259 test]# python setup.py build_ext –inplace running build_ext cythoning sum.pyx to sum.c building ‘sum’ extension gcc -pthread -fno-strict-aliasing -fPIC -g -O2 -DNDEBUG -g -fwrapv -O3 -Wall -Wstrict-prototypes -fPIC -I/opt/ActivePython-2.7/include/python2.7 -c sum.c -o build/temp.linux-x86_64-2.7/sum.o gcc -pthread -shared build/temp.linux-x86_64-2.7/sum.o -o /root/cpython/test/sum.so

编译完成之后可以导入到 python 中使用:

[root@v5254085f259 test]# python ActivePython 2.7.2.5 (ActiveState Software Inc.) based on Python 2.7.2 (default, Jun 24 2011, 11:24:26) [GCC 4.0.2 20051125 (Red Hat 4.0.2-8)] on linux2 Type “help”, “copyright”, “credits” or “license” for more information. >>> import pyximport; pyximport.install() >>> import sum >>> sum.sum(1,3)

下面来进行一个简单的性能比较:

Cython 测试代码from time import time def test(int n): cdef int a =0 cdef int i for i in xrange(n): a+= i return a t = time() test(10000000) print “total run time:” print time()-t

测试结果:

[GCC 4.0.2 20051125 (Red Hat 4.0.2-8)] on linux2 Type “help”, “copyright”, “credits” or “license” for more information. >>> import pyximport; pyximport.install() >>> import ctest total run time: 0.00714015960693Python 测试代码from time import time def test(n): a =0; for i in xrange(n): a+= i return a t = time() test(10000000) print “total run time:” print time()-t [root@v5254085f259 test]# python test.py total run time: 0.971596002579

对比可以知道使用 Cython 的速度提高了 100 多倍。

总结:本文主要讨论了常见的代码优化方法,性能优化工具的使用以及如何诊断代码的性能瓶颈等内容,希望可以给 Python 开发人员一定的参考。