快速Python性能优化要点

521 查看

翻译,两篇博文 Quick Python Performance Optimization , 很短

第一篇

仅是解释,如何用正确并且高效的方式完成在日常Python编码中简单的事情

1.在ipython交互shell中使用%timeit (per line) 和 %prun (cProfile)

测量你的代码,并且找到性能的瓶颈.这和”过早优化是一切罪恶的根源”并不矛盾.这是第一级的性能优化,而不是重量级的性能优化序列.

更多的测量Python代码性能,可参考 http://www.huyng.com/posts/python-performance-analysis/

另一个有趣的库,line_profiler,逐行的性能测量https://bitbucket.org/robertkern/line_profiler

2.减少函数调用次数.如果你需要处理一个列表,传递整个列表,而不是遍历列表,调用函数传递每个元素并获取返回值

3.使用xrange代替range

xrange是range的C语言实现–更高效的内存使用.

4.对于大数据,使用numpy, 性能优于标准数据结构

5.使用””.join(string) 代替字符串 + 或 +=

6.while 1 比 while True 快

7.性能: 列表解析 > for 循环 > while 循环

遍历list时,列表解析性能最优,while循环最差(需要一个外部计数器)

8.使用 cProfile, cStringIO 和 cPickle

总是使用模块可用的C版本

9.使用局部变量

局部变量性能优于全局变量,内建变量及属性查找

10.存在序列和对待器版本- 迭代对象内存更优. 使用 itertools

尽可能的创建生成器和使用yield.相对于常规序列实现方式,性能更优

http://www.diveinto.org/python3/iterators.html

http://stackoverflow.com/questions/231767/the-python-yield-keyword-explained 中文翻译

第二篇

11.在适用的场景中尽可能地使用map,reduce,filter替代for循环

12.检查元素归属 ‘a in b’, dict或set 优于list/tuple.

13.处理大数据时,尽可能使用不可变数据类型,更快 – tuples > list

14.插入list的复杂度是O(n)

15.如果你需要操作序列的开始和结束,使用deque

16.del – 使用后删除无用对象

17.使用time.clock()

18.GIL(http://wiki.python.org/moin/GlobalInterpreterLock) – GIL is a demon.

GIL允许每个进程中运行一个python本地线程,防止CPU级别的并行. 尝试使用ctypes和原生c库来解决这个问题. 当你无法用Python进一步进行优化的时候.记住,你还有一种选择,使用原生C实现性能糟糕的函数,并且通过Python c绑定调用. 其他库,例如gevent,同样可以解决这个问题,并且某些扩展非常成功

TL,DR: 在写代码时,考虑一圈:数据结构,构造迭代,内建函数和必要情况下使用GIL构造C扩展