Python multiprocessing 绕过 GIL 靠独立进程副本;Process 不执行目标函数主因未加 if name == '__main__': 保护(Windows/macOS)或含不可序列化对象(spawn);Pool 中 apply 同步阻塞,apply_async 异步获结果,map 同步分片迭代;多进程写文件需避免竞态,优先用 Queue 汇总或原子 os.write;跨进程传递数据必须可序列化,资源如数据库连接不可共享。

Python 的 multiprocessing 模块不是“多线程加强版”,它绕过 GIL 的本质是靠真正独立的进程副本——每个子进程都有自己的内存空间、Python 解释器和 GIL 实例。
为什么 Process 启动后不执行目标函数?
常见现象:调用 p.start() 后程序直接退出,目标函数没打印任何日志,也没报错。
- Windows/macOS 上必须将进程创建逻辑放在
if __name__ == '__main__':保护块内,否则子进程会重新导入主模块并递归启动新进程 - Linux 虽支持
fork,但若主模块含不可序列化对象(如打开的文件句柄、threading.Lock),spawn启动方式下也会静默失败 - 检查
p.exitcode是否为None(未启动)、0(成功)或负数(被信号终止)
Pool 的 apply vs apply_async vs map 怎么选?
三者底层都走 worker 进程池,但调用语义和阻塞行为差异极大:
-
apply(func, args):同步阻塞,等结果返回才继续;适合单次、耗时长、需强顺序的计算 -
apply_async(func, args):立即返回AsyncResult对象,用.get(timeout=...)拉取结果;适合需要超时控制或组合多个异步任务的场景 -
map(func, iterable):同步阻塞,但自动分片迭代;要求iterable可长度预估(否则无法分发),且所有任务参数结构一致
from multiprocessing import Pooldef square(x): return x * x
if name == 'main': with Pool(2) as p:
同步获取 [0,1,4,9]
res1 = p.map(square, [0, 1, 2, 3]) # 异步提交,手动等待 res2 = p.apply_async(square, (5,)) print(res2.get()) # 输出 25子进程如何安全读写同一文件?
多个进程直接用
open(..., 'a')追加写,看似安全,实则可能因缓冲/系统调用原子性不足导致内容错乱(尤其小写入+高并发)。立即学习“Python免费学习笔记(深入)”;
- 避免让多个进程同时写同一文件路径;优先用进程间通信(
Queue/Pipe)把数据汇总到主进程再写 - 若必须分散写,用
os.open(..., os.O_WRONLY | os.O_APPEND | os.O_CREAT)+os.write(),确保追加是原子的(仅限单次写入 ≤ 4KB) - 跨平台统一方案:用
multiprocessing.Lock包裹print()或f.write(),但会严重拖慢吞吐,仅适用于调试日志
真正难的不是启动几个进程,而是理解哪些数据能跨进程边界安全传递(必须可序列化)、哪些状态根本不能共享(比如数据库连接、GUI 句柄)、以及父子进程生命周期如何耦合。一个没关掉的 Queue 或忘了 join() 的 Process,就足以让程序 hang 在退出阶段。










