必须引入并发控制,用锁确保任意时刻最多一个执行单元操作文件段:线程用threading.Lock(需共享),进程用multiprocessing.Lock或fcntl.flock/msvcrt.locking;按需细粒度加锁,配合with确保异常安全。

Python中对同一文件进行多线程或多进程读写时,必须引入并发控制,否则极易出现数据错乱、覆盖或丢失。核心思路是:**用锁确保任意时刻最多只有一个执行单元在操作目标文件段**。
线程内文件操作:用threading.Lock
适用于多线程场景(如Flask/FastAPI中多个请求同时写日志)。Lock对象需在所有线程间共享,不能每个线程新建一个。
- 定义全局锁或通过类属性/模块变量统一管理
- 写入前调用lock.acquire(),写完立即lock.release();推荐用with lock:自动释放
- 注意:Lock不跨进程,子进程无法继承父进程的锁状态
多进程文件访问:用multiprocessing.Lock 或 文件级锁
fork或spawn方式启动的进程彼此独立,threading.Lock无效。推荐两种方式:
- multiprocessing.Lock:适合进程间协调,但只保证“加锁代码块”互斥,不直接锁定文件内容
- fcntl.flock(Linux/macOS)或 msvcrt.locking(Windows):真正对文件描述符加锁,可防止其他进程同时写同一文件
- 示例:打开文件后先fcntl.flock(fd, fcntl.LOCK_EX),操作完再LOCK_UN
避免锁粒度不当:按需锁定,而非锁整个文件
粗粒度锁(如整个文件加锁)会严重降低并发性能。更合理的方式包括:
立即学习“Python免费学习笔记(深入)”;
- 按业务逻辑拆分文件:如按日期生成日志文件,各进程写不同文件,天然无冲突
- 写入固定偏移位置时,可用file.seek()定位后小范围写,配合flock锁定对应区域(需自行管理区间)
- 高频写场景优先考虑队列中转:多线程/进程把数据发给单个写线程,由它串行落盘
注意异常安全:锁必须被释放
如果写文件过程中抛出异常,未释放锁会导致死锁或后续操作永久阻塞。
- 务必使用with lock:语法,即使发生异常也会自动释放
- 若手动acquire,须在try/finally中确保release被执行
- flock也需配对调用,建议封装成上下文管理器










