Shell脚本分割Nginx日志,并定期清理
默认nginx只会生成一个访问日志,在每天的积累下,日志文件会变的非常大,如果需要做一下日志的分析,无论是使用脚本分析,还是把日志下载本地分析,都不太方便。每天分割Nginx的访问日志,有利于分析日志。
一:新建脚本文件
vim cut_nginx_log.sh
- #!/bin/bash
- #nginx access log segmentation shell script
- #www.webyang.net
- #日志目录
- log_dir="/usr/local/nginx/logs/"
- cd $log_dir
- time=`date +%Y%m%d --date="-1 day"`
- #nginx启动目录
- nginx_dir="/etc/init.d/nginx"
- #日志保存天数
- save_days=15
- #日志文件名所处'/'分割的位置,key('/'数+1)
- num=6;
- #此处待优化(取得文件不带后缀的文件名)
- website=`ls $log_dir*.log | xargs -n 1 | cut -f 1 -d "." | cut -f $num -d "/"`
- #日志目录下所有的日志文件为文件夹,循环新建对应的时间文件
- for i in $website
- do
- #判断目录是否存在
- if[!-d $log_dir$i ];then
- mkdir "$i"
- fi
- mv $log_dir$i.log $log_dir$i/$i-$time.log
- done
- #删除设置天数前的数据
- find $log_dir/-mtime +$save_days -exec rm -rf {} \;
- #平滑启动nginx
- $nginx_dir reload
二、设置crontab,每天定时切割
如果没有安装,运行yum -y install crontabs 安装。
输入crontab -e命令(详情参考:http://www.webyang.net/Html/web/article_232.html),
输入下面的内容:
00 00 * * * /bin/bash /usr/local/nginx/cut_nginx_log.sh
1、00 00意思为00分00点,也就是凌晨0点,后面“ * * * ”为“ 日 月 年 ”无需定义
2、"/usr/local/nginx/cut_nginx_log.sh" 为你的shell的路径。
OK ! 大功告成,每天的0时就会自动完成日志的切割并存在相应的以网站日志文件命名的目录中。
三、展示
web1.log => web1/web1-20160322.log web1/web1-20160323.log
web2.log => web2/web2-20160322.log web2/web2-20160323.log
相关推荐
huha 2020-10-16
laisean 2020-11-11
大牛牛 2020-10-30
firefaith 2020-10-30
liguojia 2020-10-20
wangzhaotongalex 2020-10-20
以梦为马不负韶华 2020-10-20
JohnYork 2020-10-16
Julyth 2020-10-16
applecarelte 2020-10-16
laisean 2020-09-27
flycappuccino 2020-09-27
liguojia 2020-09-27
wangzhaotongalex 2020-09-22
流年浅滩 2020-10-23
liujianhua 2020-10-22
woaimeinuo 2020-10-21
tufeiax 2020-09-03
laisean 2020-09-01
vvu 2020-09-16
libao 2020-09-16
Yyqingmofeige 2020-08-18
zhushixia 2020-08-17