答案:通过shell脚本结合cron定时任务可实现Linux日志按日期切割。首先利用mv命令移动日志文件并用kill -HUP通知服务重新打开日志,避免重启服务;编写脚本获取昨日日期作为备份文件名,检查原日志存在且非空后完成移动、通知及压缩操作;最后通过crontab设置每日凌晨自动执行,配合find命令实现日志保留策略,确保系统性能与可维护性。

Linux系统中日志文件会随着时间不断增长,过大的日志会影响系统性能,也不便于排查问题。通过shell脚本按日期切割日志是一种常见且有效的管理方式。下面介绍具体操作流程。
1. 理解日志切割原理
日志切割的核心思路是将当前日志重命名或移动到带日期的备份文件中,并通知服务重新生成新日志或清空原文件。常用方法包括:
- mv(移动)+ 重启服务:把原日志文件改名,然后重启服务让其创建新日志。
- mv + kill -HUP:移动日志后发送HUP信号,使服务重新打开日志文件,无需重启。
- 使用logrotate工具:这是系统自带方案,但本文重点讲手动shell脚本实现。
2. 编写按日期切割的Shell脚本
以下是一个通用的日志切割脚本示例,以切割Nginx的access.log为例:
#!/bin/bash日志文件路径
LOG_FILE="/var/log/nginx/access.log"
备份目录
LOG_DIR="/var/log/nginx/"
获取昨天日期(格式:YYYYMMDD)
YESTERDAY=$(date -d "yesterday" +%Y%m%d)
新日志文件名
NEW_LOG="${LOG_DIR}access.${YESTERDAY}.log"
检查原日志是否存在且非空
if [ -f "$LOG_FILE" ] && [ -s "$LOG_FILE" ]; then
移动日志文件
mv "$LOG_FILE" "$NEW_LOG" # 通知nginx重新打开日志文件(不中断服务) kill -HUP $(cat /var/run/nginx.pid) # 可选:压缩日志 gzip "$NEW_LOG" echo "Log rotated successfully: $NEW_LOG.gz"else echo "No log data to rotate or file not found." fi
说明:
- 使用
date -d "yesterday"避免当天凌晨执行时出现时间错乱。 -
kill -HUP让Nginx释放旧文件句柄并创建新日志,适合大多数守护进程。 - gzip可节省磁盘空间,尤其适用于大访问量场景。
3. 设置定时任务自动执行
使用crontab每天凌晨执行脚本:
# 编辑root用户的cron任务 crontab -e添加一行(每天00:10执行)
10 0 * /path/to/your/rotate_log.sh
确保脚本有执行权限:
chmod +x /path/to/rotate_log.sh4. 注意事项与最佳实践
实际使用中需注意以下几点:
- 服务兼容性:不是所有服务都支持HUP信号,某些程序需要重启才能释放文件句柄。
- 日志路径权限:确保运行脚本的用户对日志目录有读写权限。
- 避免频繁切割:通常每日一次足够,高频切割会导致文件碎片。
- 保留策略:可配合find命令定期删除超过一定天数的日志,例如保留最近7天:
基本上就这些。通过简单shell脚本加cron定时任务,就能实现稳定可靠的日志按日期切割,无需依赖额外工具,适合轻量级运维场景。










