multiprocessing能实现并行是因为它启动独立进程,每个进程拥有自己的Python解释器和GIL,从而绕过单进程内GIL对多线程CPU并行的限制;适用于CPU密集型任务,需注意IPC开销、主模块保护及启动方法选择。

Python 的 multiprocessing 本身不“绕过”GIL,而是**根本不用 GIL**——它通过启动独立进程(而非线程),让每个进程拥有自己的 Python 解释器和独立的 GIL,从而实现真正的并行计算。
为什么 multiprocessing 能实现并行?
CPython 的 GIL(全局解释器锁)只在单个进程中限制多线程的 CPU 并行执行。multiprocessing 模块通过 fork(Unix/Linux/macOS)或 spawn(Windows,默认)方式创建全新进程,每个子进程:
- 拥有独立的内存空间和 Python 运行时环境
- 各自持有一个专属的 GIL(互不影响)
- 可同时在不同 CPU 核心上执行 CPU 密集型任务
实际使用的关键点
要真正获得并行收益,需注意以下几点:
- 任务类型要匹配:适合 CPU 密集型工作(如数值计算、图像处理、加密)。I/O 密集型任务用 threading 或 asyncio 更合适
-
避免频繁跨进程传递大数据:进程间通信(IPC)有开销,推荐用
Queue、Pipe或共享内存(Value/Array)优化 -
主模块保护:Windows 和部分 spawn 启动方式下,必须将入口代码放在
if __name__ == '__main__':块中,防止子进程递归启动 -
合理选择启动方法:可通过
mp.set_start_method('spawn')或'forkserver'控制进程创建方式,影响性能与兼容性
一个典型例子
计算多个大数的斐波那契值(CPU 密集):
本文档主要介绍如何通过python对office excel进行读写操作,使用了xlrd、xlwt和xlutils模块。另外还演示了如何通过Tcl tcom包对excel操作。感兴趣的朋友可以过来看看
立即学习“Python免费学习笔记(深入)”;
import multiprocessing as mp import timedef fib(n): if n <= 1: return n return fib(n-1) + fib(n-2)
if name == 'main': nums = [35, 36, 37, 38] start = time.time() with mp.Pool() as pool: results = pool.map(fib, nums) print(f"并行耗时: {time.time() - start:.2f}s")
相比单进程串行执行,4 个核心上运行通常能接近 4 倍加速(忽略 IPC 和调度开销)。
它不是万能的
multiprocessing 不能解决所有并发问题:
- 进程创建和销毁开销比线程大
- 无法直接共享对象状态(如类实例、列表引用),需显式同步或序列化
- 调试更复杂,日志和异常传播不如单进程直观









