应立即停用fopen(...,'a')追加写入大文件,改用带文件锁的RotatingFileHandler按大小(如10MB)和数量(如30个)轮转日志,禁用JSON_UNESCAPED_UNICODE以减小体积,敏感字段须脱敏,批量缓冲写入并复用文件句柄。

日志文件超过 500MB 还在追加写入?立刻停用 fopen(..., 'a')
直接追加写入大文件会导致 I/O 阻塞、磁盘满、fseek 失效,甚至 fwrite 返回 false 却不报错。PHP 默认的 error_log 或自定义 fopen($file, 'a') 在订单量突增时极易失控。
- 改用按时间切片:每小时/每万条生成新文件,命名含
order_log_20240520_14.log - 禁用长连接场景下的单文件累积写入——哪怕你用了
date('YmdHi')动态拼路径,也要确保每次写前检查文件大小 - 用
filesize($file) > 100 * 1024 * 1024做硬限制,超限就轮转,别依赖 cron 定时清理
用 rotating_file_handler 而不是手写轮转逻辑
Monolog 是事实标准,但很多人只用 StreamHandler,没启用轮转。关键不是“能不能轮”,而是“轮得是否原子、是否丢日志”。
- 必须设置
maxFiles(如30)和maxFileSize(如10485760,即 10MB) - 避免用
RotatingFileHandler的默认useLocking = false—— 高并发下单条订单日志可能被截断或覆盖 - 示例配置片段:
$handler = new RotatingFileHandler(
'/var/log/orders/order.log',
30, // 最多保留 30 个归档
Logger::INFO,
true, // $filesystemPermissions
true // $useLocking → 关键!开启文件锁
);
json_encode($order, JSON_UNESCAPED_UNICODE) 会让日志体积翻倍?
订单数据常含中文、特殊符号,但盲目加 JSON_UNESCAPED_UNICODE 会把汉字转成 \u4f60 形式,体积增大约 2.5 倍。而纯 ASCII 日志压缩率高,UTF-8 原样存储反而更省空间。
- 去掉
JSON_UNESCAPED_UNICODE,让中文以 UTF-8 字节流直存(前提是日志系统支持 UTF-8 解析) - 敏感字段如
id_card、phone必须脱敏再记录,否则日志既大又违规 - 非必要字段过滤:订单日志只需
order_id、status、pay_time、amount、error_code,别 dump 整个$order数组
线上还在用 file_put_contents($log, $line, FILE_APPEND)?
这个函数看似简单,但在高并发下会触发大量小 write 系统调用,且 FILE_APPEND 内部仍需 lseek 到文件末尾——当文件超 2GB,某些文件系统(如 ext3)会出错。
立即学习“PHP免费学习笔记(深入)”;
- 改用缓冲写入:收集 50–100 条日志后批量
file_put_contents($file, $buffer, FILE_APPEND | LOCK_EX) - 绝对不要在循环里反复打开/关闭日志文件;保持句柄复用,用
fwrite($fp, $line)+fflush($fp)控制刷盘时机 - 若用 Swoole 或 PHP-FPM 子进程模型,注意
STDOUT重定向到文件时,父子进程共享 fd 可能导致日志错乱
真正难的不是“怎么切分”,而是“切分时有没有丢掉最后 3 条支付回调日志”——所有轮转动作必须带原子性校验和失败回退,比如先 rename 再 touch 新文件,而不是先清空再写。











