Python并发核心在于区分I/O与CPU密集型任务:threading适用于I/O(如HTTP请求),因GIL限制无法加速CPU密集型计算(如sum);asyncio需正确await协程,避免未执行警告;multiprocessing需注意Windows下spawn启动方式及进程间通信问题。

这个标题没有实际技术信息,无法对应到具体问题或知识点。Python 并发系统的学习,关键不在“第几讲”,而在于你当前卡在哪一步:
- 是
threading里共享变量总出错,但又不确定要不要加Lock? - 是用
asyncio写完发现await没生效,函数还是同步执行? - 是
multiprocessing启动子进程后,print不输出、日志不落盘、甚至直接卡死? - 还是看懂了 GIL 的定义,但说不清为什么
requests.get()多线程能提速,而sum(range(10**7))却不能?
为什么 threading 改不了 CPU 密集型任务的性能?
因为 CPython 的 GIL(全局解释器锁)同一时刻只允许一个线程执行 Python 字节码。sum、numpy 纯计算(未释放 GIL 的情形)、加密哈希等操作,多线程不会加速,反而因线程切换增加开销。
- 验证方式:用
time.perf_counter()测单线程 vs 4 线程跑sum(range(10**8)),后者通常更慢 - 真正有效的替代是
multiprocessing或调用已释放 GIL 的库(如numpy的大部分数组运算) -
threading.Thread只适合 I/O 密集场景:HTTP 请求、文件读写、数据库查询
asyncio 报 RuntimeWarning: coroutine 'xxx' was never awaited 怎么办?
这是最常见的误用:把协程对象当普通函数调了,没用 await 或没丢进事件循环。
- 错误写法:
async def fetch(url): return requests.get(url)
fetch("https://httpbin.org/get") # ← 忘了 await,返回的是 coroutine 对象,不执行 - 正确写法(在 async 函数内):
data = await fetch("https://httpbin.org/get") - 正确写法(在同步入口):
import asyncio
asyncio.run(fetch("https://httpbin.org/get")) - 注意:
requests是同步阻塞库,不能直接await;要用aiohttp或httpx.AsyncClient
multiprocessing 子进程不打印、不写日志、主进程就卡住?
常见于 Windows 或使用 spawn 启动方式时,子进程无法继承主进程的标准输出/错误流,且未做显式初始化。
立即学习“Python免费学习笔记(深入)”;
- Windows 默认用
spawn,会重新导入主模块 → 必须用if __name__ == "__main__":包裹Process启动逻辑 - 日志不输出:子进程的
sys.stdout默认不缓冲,但有时被重定向失效;建议用logging并配置handlers到文件,或显式flush=True - 卡住常见原因:
Queue/Pipe读写未配对、子进程抛异常未捕获、忘了.join()或.close() - 调试技巧:子进程中加
print(os.getpid(), "started"),确认是否真启动
GIL 不是“bug”,而是 CPython 内存管理模型的权衡结果;asyncio 不是“高级 threading”,它是完全不同的调度模型;multiprocessing 的通信成本远高于内存共享——这些不是细节,是决定你代码能不能跑通、会不会偶发失败的关键分水岭。










