yield使函数变成生成器:调用时返回generator对象,保存栈帧状态,通过next()/send()暂停恢复执行;return触发StopIteration;需注意可变对象共享陷阱及close()/throw()资源控制。

yield 是如何让函数变成生成器的
调用一个含 yield 的函数时,它不会立即执行函数体,而是直接返回一个 generator 对象。这个对象本质上是实现了迭代器协议(__iter__ 和 __next__)的状态机。
关键点在于:函数的局部变量、执行位置、异常状态都被保存在生成器对象内部,不是靠线程或协程调度,而是靠 CPython 解释器在每次 next() 或 send() 时恢复栈帧(PyFrameObject)来实现“暂停-恢复”。
-
yield表达式本身会暂停执行,并把右侧值返回给调用方(类似return,但不销毁栈帧) - 下一次调用
__next__()时,从yield后一条语句继续执行 - 如果用
send(value),则该value会成为上一个yield表达式的求值结果
yield 表达式与 return 的行为差异
return 在生成器中不是禁止的,但它有特殊语义:触发 StopIteration 异常,并可携带一个返回值(Python 3.3+ 支持 return value,该值会成为 StopIteration.value)。
而 yield 永远不会结束生成器,除非自然退出或被 close() / throw() 中断。
立即学习“Python免费学习笔记(深入)”;
- 首次调用
next(gen)会执行到第一个yield并暂停;此时不能用send(value)(必须先next()或send(None)) -
return后不能再有代码(语法错误),但yield后可以跟普通语句(只要没被执行到) - 生成器退出后再次调用
next(),一律抛出StopIteration,且不可重用
常见误用:在 yield 后修改变量却期望保留旧状态
很多人以为 yield 会“冻结”所有变量,其实它只保存执行点和栈帧,而可变对象(如 list、dict)仍被多个迭代周期共享 —— 这是 bug 高发区。
def bad_counter():
items = []
for i in range(3):
items.append(i)
yield items # ❌ 所有 yield 都返回同一个 list 对象
for x in bad_counter():
print(x)
输出:
[0]
[0, 1]
[0, 1, 2] ← 不是预期的 [0], [1], [2]
- 修复方式:在
yield前做浅拷贝(yield items.copy())或重建新对象(yield [i]) - 若需深拷贝,用
copy.deepcopy(),但注意性能开销 - 这种陷阱在缓存中间结果、构建嵌套结构时极易出现,尤其配合
append()/update()等就地修改操作
生成器关闭与异常传递的底层控制
生成器不是被动等待 next(),它支持主动中断和注入异常,这是实现资源清理和流程控制的关键。
-
gen.close()触发GeneratorExit异常,可在try/finally中释放资源(但禁止在except GeneratorExit中yield) -
gen.throw(type, value, traceback)把异常注入当前暂停点,可用于模拟错误路径或驱动状态机 -
gen.send()不仅传值,还能唤醒yield左侧等待赋值的表达式,例如data = yield
这些机制共同构成生成器的完整生命周期控制能力,但实际项目中容易忽略 close() 调用时机 —— 比如在 for 循环未完成就跳出时,生成器不会自动关闭,可能造成资源泄漏。










