pyinstaller的库导入和多进程打包问题

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/u011587401/article/details/75532488

以前使用py2exe进行打包,那也仅限于windows。后来由于工作原因需要在Linux上进行打包操作,那么就不能使用py2exe工具了,后来选择了pyinstaller。

在实际应用中,pyinstaller打包的效率和操作性很好,个人觉得比py2exe更加智能,但是也是有一些问题。


开发环境:Windows 7 + python3.4

一、import导入的问题

pyinstaller是很智能的,只要指定了入口py文件,那么它就会根据代码自动查找需要导入的包。但是隐式导入的话,平常运行是没有问题的,举例:

[python]  view plain  copy
  1. # test1.py  
  2. from sqlalchemy import create_engine  
  3. from sqlalchemy.orm import sessionmaker  
  4.   
  5.   
  6. DB_CONNECT_STRING = 'mysql+pymysql://root:123456@localhost/study'  
  7. engine = create_engine(DB_CONNECT_STRING, echo = False)  
  8. DB_Session = sessionmaker(bind = engine)  
  9. session = DB_Session()  
  10.   
  11. print('this is my test')  

运行这个ORM库的初始化引擎,是没有问题的,在console得到结果:

this is my test

那么我们开始打包,使用最简单的pyinstaller test1.py。打包完成后,在当前目录下有个dist文件夹,进入dist下的test1文件夹,然后打开cmd,运行这个exe,我们就会发现:


这是怎么回事呢?那么问题来了,sqlalchemy这个库在初始化的时候是不需要显示导入引擎库的,它自己有一个create_engine()的函数来初始化,这个字符串是使用者根据规则来自己填写的。其实解决的方法很简单,我们只要在显式导入pymysql这个库即可。现在我们导入这个库:

[python]  view plain  copy
  1. import pymysql  

重新打包一遍(重新打包的时候记得删除掉spec文件,否则会有缓存,或者是加上--clean选项清除掉),再次运行:


现在就没有这个问题了。


二、多进程打包的问题

官方的CPython存在一个GIL锁,这个锁的存在有很多优点,很多库都是线程安全的,单线程执行的效率也高。在Python早期的一个版本中取消掉了GIL,代之以高粒度的锁来实现多线程,但是实际应用中单个线程的效率大大降低。故后来又将GIL这个锁还原回去,所以至今的python2也好还是python3中都会有这个锁。但是这个锁有很大一个问题,那就是效率问题,它导致了python仅仅只能利用一个core来进行数据的计算。所以后面为了弥补这个GIL带来的问题,专家们设计了multiprocessing库,gevent库等。前一个是多进程库,为了解决python用于数据密集型处理的情况;后一个用于异步IO处理的情况,基本原理就是在CPU时钟之间来回切换,简单的例子就是爬虫程序爬取网页的时候。假如有10个url,我们都要去GET它,实际上网络之间的延迟是大大高于计算机内部的,那么这个时间内计算机就切换到下一个。

有时候运用多进程是必须的,这个替代不了,哪怕它占用资源很多。

废话不多说了,实际操作中,存在多进程使用的时候,本身像Debug这种模式来运行python代码是没有问题的:

[python]  view plain  copy
  1. # mul_process.py  
  2. from multiprocessing import Process  
  3.   
  4. def foo1():  
  5.     print('I am foo1')  
  6.   
  7. def foo2():  
  8.     print('I am foo2')  
  9.       
  10. def foo3():  
  11.     print('I am foo3')      
  12.   
  13. if __name__ == '__main__':  
  14.     a = Process(target = foo1)  
  15.     b = Process(target = foo2)  
  16.     c = Process(target = foo3)  
  17.     a.start()  
  18.     b.start()  
  19.     c.start()  
  20.       
  21.     a.join()  
  22.     b.join()  
  23.     c.join()  
  24.     print('主进程已经跑完了')  
运行这段代码,是没有问题的:

I am foo1
I am foo2
I am foo3
主进程已经跑完了

现在我们使用pyinstaller来打一个包,然后运行这个可执行文件:

……

等一会之后,我发现计算机不怎么响应了,而且很卡,打开任务管理器:


赶紧Ctrl + Break结束掉!

这完全不是我们想要的,同时这么多进程在运行,计算机就要挂掉了。

这种情况是很令人费解的,考虑半天无果之后,当然Google了——https://github.com/pyinstaller/pyinstaller/wiki/Recipe-Multiprocessing

GitHub上说得很清楚了,不再赘述。

现在我们新建一个模块,暂且就叫mul_process_package.py,添加代码:

[python]  view plain  copy
  1. import os  
  2. import sys  
  3. import multiprocessing  
  4.   
  5. # Module multiprocessing is organized differently in Python 3.4+  
  6. try:  
  7.     # Python 3.4+  
  8.     if sys.platform.startswith('win'):  
  9.         import multiprocessing.popen_spawn_win32 as forking  
  10.     else:  
  11.         import multiprocessing.popen_fork as forking  
  12. except ImportError:  
  13.     import multiprocessing.forking as forking  
  14.   
  15. if sys.platform.startswith('win'):  
  16.     # First define a modified version of Popen.  
  17.     class _Popen(forking.Popen):  
  18.         def __init__(self, *args, **kw):  
  19.             if hasattr(sys, 'frozen'):  
  20.                 # We have to set original _MEIPASS2 value from sys._MEIPASS  
  21.                 # to get --onefile mode working.  
  22.                 os.putenv('_MEIPASS2', sys._MEIPASS)  
  23.             try:  
  24.                 super(_Popen, self).__init__(*args, **kw)  
  25.             finally:  
  26.                 if hasattr(sys, 'frozen'):  
  27.                     # On some platforms (e.g. AIX) 'os.unsetenv()' is not  
  28.                     # available. In those cases we cannot delete the variable  
  29.                     # but only set it to the empty string. The bootloader  
  30.                     # can handle this case.  
  31.                     if hasattr(os, 'unsetenv'):  
  32.                         os.unsetenv('_MEIPASS2')  
  33.                     else:  
  34.                         os.putenv('_MEIPASS2''')  
  35.   
  36.     # Second override 'Popen' class with our modified version.  
  37.     forking.Popen = _Popen  
然后在mul_process.py中加入:

[python]  view plain  copy
  1. import mul_process_package  
然后在if __name__ == '__main__':下面加入:

[python]  view plain  copy
  1. multiprocessing.freeze_support()  

先运行测试一遍,发现没有问题,那么删掉以前的spec文件,再次打包。运行结果如下:

这两个问题就算解决了。


结语:python的一个强大之处在于众多开源库的存在,在GitHub上的python开源项目也越来越多。python拥有众多的优点,当然也有众多的缺点,现在还没有一款语言能达到既有C++般的效率又有python这般简洁的语法。鱼与熊掌不可兼得,常人是“一”字型人才,也有“|”字型人才,我们的目标当然是“十”字型人才。多学、多用与多动手,一切问题迎刃而解。

猜你喜欢

转载自blog.csdn.net/u011587401/article/details/75532488