使用find与cron实现日志自动切割:先通过find命令定位大日志文件,结合split按大小分割,再用cron定时执行任务,配合gzip压缩和清理策略,构建轻量级日志管理体系,适用于无logrotate环境。

Linux系统中,日志文件会随着时间不断增长,过大的日志不仅占用磁盘空间,还会影响排查问题的效率。通过cron和find命令组合,可以实现灵活、自动化的日志切割,无需依赖logrotate也能完成基础管理任务。
核心思路是利用find命令找出指定目录下超过一定大小或修改时间较早的日志文件,再结合split或其他处理方式将其切分。
例如,将/var/log/下大于100MB的.log文件进行分割:
find /var/log -name "*.log" -size +100M -exec split {} {}_part_ \;
这条命令会查找所有大于100MB的.log文件,并用split按默认大小(通常是1000行)切分为多个片段,原文件名后加上_part_aa、_part_ab等后缀。
如果希望按大小分割,比如每个片段50MB:
find /var/log -name "*.log" -size +100M -exec split -b 50M {} {}_$(date +%Y%m%d)_ \;
为了让日志切割自动化,可将上述命令写入crontab,设定周期执行。
编辑当前用户的定时任务:
crontab -e
添加一行,表示每天凌晨2点执行一次日志切分:
0 2 * * * find /var/log -name "*.log" -size +100M -exec split -b 50M {} {}_$(date +\%Y\%m\%d)_ \; > /dev/null 2>&1
注意:在crontab中使用%符号需要转义,因此写成\%Y\%m\%d。
切分后的日志仍占用空间,建议进一步压缩归档或删除旧文件。
例如,在切割后对原始大文件进行gzip压缩,并保留7天:
find /var/log -name "*.log" -size +100M -exec split -b 50M {} {}_$(date +\%Y\%m\%d)_ \; -exec gzip {} \;
find /var/log -name "*.log.gz" -mtime +7 -delete
第一条命令在split后立即压缩原文件;第二条则定期清理7天前的压缩日志。
直接操作正在被程序写入的日志文件可能导致数据丢失或服务异常。建议先通知应用重载日志(如nginx -s reopen),或使用copytruncate方式模拟安全切割。
若无法重启服务,可采用先拷贝再清空的方式:
find /var/log -name "app.log" -size +100M -exec sh -c 'cp {} {}.bak && echo "" > {}' \;
这样保留了历史内容,又不会中断写入。
基本上就这些。通过find定位目标日志,配合split切割、gzip压缩,再由cron驱动定时执行,就能构建一套轻量高效的手动日志管理体系。适用于嵌入式设备、容器环境或不想启用logrotate的场景。
以上就是Linux日志怎么切割_Linux日志通过cron和find命令组合切割的实用技巧的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号