Python异步编程的核心是协程任务的全生命周期管理:需显式创建并持有Task引用以防静默取消,用Semaphore限流防压垮服务,以gather(return_exceptions=True)结构化处理异常,并通过async context manager和信号监听实现优雅退出。

Python异步编程的核心在于高效调度协程任务,而 asyncio 不只是写 async/await,关键在如何组织、监控、取消、错误处理和资源协同——这才是真实项目中容易出问题的地方。
任务生命周期管理:别让协程“悄悄消失”
直接用 await coro() 是最简单的方式,但生产环境里往往需要并发执行多个协程,并控制它们的启停与状态。此时应显式创建 Task 对象:
- 用
asyncio.create_task()启动后台任务,它会立即被调度,不阻塞当前协程 - 保存任务引用(如放进列表或字典),便于后续检查
task.done()、task.cancelled()或调用task.cancel() - 避免只用
asyncio.ensure_future()(兼容旧代码),优先用create_task()—— 它绑定当前事件循环,语义更清晰
注意:未被 await 或未被强引用的任务,可能在垃圾回收时被静默取消(尤其在 Python 3.12+ 更严格)。务必保留对活跃任务的引用。
并发控制与限流:防止压垮下游服务
同时发起几十个 HTTP 请求看似“快”,实则易触发限流、超时或连接耗尽。用 asyncio.Semaphore 实现协程级并发限制:
立即学习“Python免费学习笔记(深入)”;
- 初始化
sem = asyncio.Semaphore(5)表示最多 5 个协程同时执行临界操作(如 API 调用) - 在协程中用
async with sem:包裹实际请求逻辑,自动 acquire/release - 配合
asyncio.wait_for()设置单次请求超时,避免某个慢请求拖垮整组任务
进阶可封装为装饰器或上下文管理器,统一管控 IO 密集型操作的并发粒度。
异常传播与结构化错误处理
多个并发任务中,一个出错默认不会中断其他任务,但异常若未被显式获取,就会“丢失”:
- 用
asyncio.gather(..., return_exceptions=True)收集所有结果(含异常对象),再统一判断处理 - 避免裸写
await asyncio.gather(t1, t2)—— 任一任务抛异常,整个 gather 就中断,其余任务可能被取消 - 对关键任务,单独 await 并 try/except;对非关键任务,可用
asyncio.create_task()+task.exception()异步捕获
推荐模式:主流程用 gather(return_exceptions=True) 获取全部结果,再按类型分发日志、重试或告警。
清理与退出:确保 async context manager 和 shutdown 可靠
真实服务需优雅关闭:释放连接、保存状态、等待任务收尾。不能只靠 sys.exit() 或 Ctrl+C 硬杀:
- 使用
async with asynccontextmanager管理数据库连接、HTTP 会话等资源,确保__aexit__执行 - 监听信号(如
signal.SIGTERM),设置标志位并调用asyncio.shield()保护关键清理协程不被中断 - 退出前用
asyncio.wait(tasks, return_when=asyncio.ALL_COMPLETED)等待活跃任务完成,或设最大等待时间后强制取消
特别注意:loop.close() 已不推荐;现代写法是让主协程自然结束,由运行器(如 asyncio.run() 或 uvloop.run())负责清理。
异步不是加几个 await 就高枕无忧,真正决定项目健壮性的,是任务怎么生、怎么管、怎么错、怎么退。











