Python协程的核心是事件循环、状态机与上下文切换的协同机制,通过await主动让出控制权实现单线程高并发I/O,适用于API请求、异步Web服务等场景,不适用于CPU密集任务。

Python协程的核心不在语法糖,而在事件循环、状态机和上下文切换的协同机制。理解async/await背后如何让单线程“看起来”并发执行,比记住装饰器或库调用更重要。这一讲聚焦两个支点:一是协程对象如何被调度,二是实际开发中哪些场景必须用协程而非多线程。
协程不是“轻量级线程”,而是可暂停/恢复的函数状态机
当你写async def fetch_data(),Python生成的是一个coroutine对象,它本身不运行,只是封装了函数体、局部变量、当前执行位置(类似程序计数器)和状态(PENDING / RUNNING / DONE)。真正驱动它的是事件循环(如asyncio.run()内部的BaseEventLoop)。
- 每次
await一个可等待对象(Awaitable),协程主动让出控制权,把自身挂起,并把后续逻辑注册为回调或放入就绪队列 - 事件循环轮询I/O完成、定时器触发或任务就绪,再唤醒对应协程,从上次暂停处继续执行
- 没有线程切换开销,也没有锁竞争——因为始终在同一个线程里跑,靠的是“合作式调度”而非操作系统抢占
什么时候该用协程?看I/O是否占主导
协程优势只在高并发I/O密集型场景放大。CPU密集任务用协程反而拖慢(因为无法并行,还多了调度成本)。
- ✅ 适合:爬虫批量请求API、Web服务处理上千连接(FastAPI/Starlette)、数据库异步查询(aiomysql、asyncpg)
- ❌ 不适合:图像批量缩放、数值模拟、加密解密等纯计算任务(应交给
concurrent.futures.ProcessPoolExecutor) - ⚠️ 混合场景:比如下载+解析JSON,可将下载用
await,解析部分用loop.run_in_executor()扔给线程池,避免阻塞事件循环
一个真实可调试的实战案例:异步限频HTTP客户端
很多API有调用频率限制(如每秒5次)。同步实现容易误超限;用协程+信号量+延迟调度,能精准控速且不阻塞其他请求。
立即学习“Python免费学习笔记(深入)”;
- 用
asyncio.Semaphore(5)控制并发请求数 - 配合
asyncio.sleep(1)在每批请求后强制间隔,比time.sleep()不阻塞整个循环 - 关键细节:不要在协程里调用requests.get()——它是同步阻塞的,必须换用
aiohttp.ClientSession - 调试技巧:加
print(f"[{asyncio.current_task()}] started")观察任务调度顺序,比日志更直观
绕不开的坑:awaitable、coroutine、task、future的区别
初学者常混淆这四个概念,它们是协程调度链上的不同环节:
-
coroutine:由
async def定义,未被调度前只是个对象,需await或asyncio.create_task()才进入执行队列 -
Task:协程的“调度包装”,由事件循环管理生命周期,支持
cancel()、done()等控制 -
Future:低层结果容器,Task继承自Future;一般不用手动创建,但
asyncio.ensure_future()可把协程转成Task/Future统一处理 -
Awaitable:任何能出现在
await右边的对象,包括coroutine、Task、Future,甚至自定义类只要实现__await__方法










