默认write()频繁小IO导致性能下降,因缓冲区易满而多次系统调用;应显式增大buffering(如64KB)或批量拼接后一次写入。

Python 默认的 file.write() 在写入大文件时如果不加控制,会频繁触发系统调用、产生大量小 IO,导致性能急剧下降——这不是代码逻辑问题,而是缓冲策略没对上实际负载。
为什么直接 write() 大量小字符串会变慢
每次调用 file.write("...") 时,Python 默认使用行缓冲(sys.stdout)或全缓冲(普通文件),但若你反复写入短字符串(比如逐行拼接日志、逐条 dump JSON),缓冲区可能频繁被填满并刷新,底层实际变成多次 write(2) 系统调用。实测 100 万行、每行 100 字节,不缓冲写入可能比批量写慢 3–5 倍。
- 默认
open(..., buffering=-1)会按系统块大小(通常 4KB–8KB)自动缓冲,但「自动」不等于「够用」 -
flush()手动刷盘会强制同步,除非必要,别在循环里调用 - 使用
print(..., file=f)比f.write()多一层格式化开销,高频写入时建议绕过
用 buffering 参数显式控制缓冲区大小
把缓冲区从默认值(如 8192)扩大到 64KB 或 1MB,能显著减少系统调用次数,尤其适合连续写入场景(如导出 CSV、生成日志、dump 二进制流)。
- 设为
buffering=0:禁用缓冲(仅适用于二进制模式,文本模式报错) - 设为
buffering=8192:固定 8KB 缓冲(比默认更可控) - 设为
buffering=1024*1024(1MB):适合单次写入总量 >10MB 的场景 - 注意:缓冲区过大不会提升速度,反而可能增加内存压力或延迟落盘时间
with open("output.log", "w", buffering=64*1024) as f:
for i in range(1000000):
f.write(f"line {i}: data...\n")
批量拼接 + 一次 write() 比逐行写快得多
当数据可预计算、内存允许(例如百万级字符串,总长
立即学习“Python免费学习笔记(深入)”;
- 用
str.join()替代循环+=(后者在 Python 中是 O(n²)) - 若数据来自生成器,先转成列表或用
itertools.islice分批,别直接join(gen)(会耗尽生成器且无长度提示) - 写入前加换行符比循环里每次都加更省事;
"\n".join(lines) + "\n"是常见安全写法
lines = [f"line {i}: data..." for i in range(100000)]
batch = "\n".join(lines) + "\n"
with open("output.txt", "w") as f:
f.write(batch)
用 writelines() 避免隐式换行和类型检查开销
如果你已有每行带换行符的字符串列表(如 ["a\n", "b\n", "c\n"]),writelines() 比循环 write() 快约 15–20%,因为它跳过了 print-style 格式化与换行补全逻辑。
-
writelines()不自动加换行符,必须确保每个元素自带\n或\r\n - 它接受任意可迭代对象(
list、tuple、generator),但 generator 若中途异常可能只写一部分 - 不推荐对超大列表直接
writelines(big_list)—— 它内部仍是逐个 write,没解决系统调用频次问题
lines_with_newline = (f"line {i}\n" for i in range(100000))
with open("output.txt", "w") as f:
f.writelines(lines_with_newline)
真正卡住性能的往往不是“怎么写”,而是“什么时候写”和“写多少才刷”。缓冲区大小、是否预聚合、换行符位置这些细节,在 GB 级写入任务里,差的不是几秒,而是几分钟甚至磁盘 I/O 队列拥塞。别迷信默认值,用 strace -e trace=write python script.py 实测你的写入行为,比读十篇教程都管用。










