Python的multiprocessing模块通过创建独立进程绕过GIL,实现CPU密集型任务的真正并行;适用于科学计算、图像处理、多模型训练等场景,能显著提升多核利用率,但需注意进程开销、序列化成本及Windows下的入口保护。

Python的multiprocessing模块主要用于绕过GIL(全局解释器锁),真正实现并行计算,适合CPU密集型任务。它通过创建独立进程来利用多核CPU资源,和threading模块解决I/O等待不同,multiprocessing解决的是“算得慢”的问题。
CPU密集型任务:科学计算、图像处理、批量数据转换
当你的程序大部分时间花在数学运算、循环遍历、加密解密、模型推理等计算上,单进程会卡死一个CPU核心,其余空闲。multiprocessing可把任务拆分给多个进程并行执行。
- 例如用
Pool.map()对10万张图片做统一缩放,比for循环快近N倍(N为可用CPU核心数) - 训练多个超参组合的机器学习模型时,每个进程跑一个配置,互不干扰
- 注意:进程启动开销比线程大,任务太轻量(如每次计算几毫秒)反而可能更慢
需要隔离运行环境的任务:避免内存/状态污染
某些场景下,你希望子任务完全独立——比如一个子进程崩溃不能影响主程序,或各任务需加载不同版本的库、不同配置文件。
- 使用
Process类启动独立进程,各自拥有独立内存空间和Python解释器实例 - 适合运行不可信代码、沙箱化脚本、或调用存在全局状态冲突的第三方C扩展
- 与
threading不同,进程间默认不共享变量,通信需显式通过Queue、Pipe或Manager
绕过GIL限制的数值计算加速
CPython中,纯Python循环无法并行提速,但用multiprocessing可让每个进程在独立GIL下运行,从而压满多核。
立即学习“Python免费学习笔记(深入)”;
- 对比:用
sum([i**2 for i in range(10**7)])单进程耗时约1.2秒;用4进程分段计算再汇总,耗时约0.4秒(视CPU而定) - NumPy/Pandas本身已做底层优化,部分操作内部多线程,但复杂自定义逻辑仍需
multiprocessing介入 - Windows下需加
if __name__ == '__main__':保护,防止递归创建进程
跨平台批量任务调度:本地模拟分布式行为
在没有Kubernetes或Celery的轻量环境中,multiprocessing可快速搭建本地并发任务队列,用于测试、CI/CD或小规模后台处理。
-
Pool配合apply_async支持异步提交+回调,类似简易版任务队列 - 结合
Manager().dict()或Value/Array可做简单共享状态(如计数器、进度条) - 注意:进程数不宜远超CPU核心数,否则上下文切换开销反拖慢整体速度
不复杂但容易忽略:数据序列化成本高,尽量减少进程间频繁传大对象;优先用Pool而非手动管理Process,更简洁安全。










