Nginx利用Logrotate实现日志分割的详细过程

目录
  • 前言
  • Logrotate用法
    • 1.安装
    • 2.基本用法详解
      • 2.1 入门
      • 2.2 分割文件压缩
      • 2.3 按照时间分割
      • 2.4 按照文件大小分割
      • 2.5 自定义每小时分割
      • 2.6 自定义分割执行时间
  • nginx日志分割步骤
  • 总结

前言

nginx默认没有提供对日志文件的分割功能,所以随着时间的增长,access.log和error.log文件会越来越大,尤其是access.log,其日志记录量比较大,更容易增长文件大小,影响日志写入性能

分割nginx日志的方法有很多,这里推荐利用Logrotate来完成

Logrotate用法

1.安装

logrotate是一个linux系统日志的管理工具。可以对单个日志文件或者某个目录下的文件按时间/大小进行切割,压缩操作;指定日志保存数量;还可以在切割之后运行自定义命令

logrotate是基于crontab运行的,所以这个时间点是由crontab控制的,具体可以查询crontab的配置文件/etc/anacrontab。系统会按照计划的频率运行logrotate,通常是每天。在大多数的Linux发行版本上,计划每天运行的脚本位于/etc/cron.daily/logrotate

主流Linux发行版上都默认安装有logrotate包,如果你的linux系统中找不到logrotate, 可以使用apt-get或yum命令来安装

yum install -y logrotate

一般linux都已经自带logrotate,下列命令可以查看是否已安装

rpm -ql logrotate

2.基本用法详解

2.1 入门

/etc/logrotate.conf这个文件是logrotate的主配置文件

# see "man logrotate" for details
# rotate log files weekly
weekly

# keep 4 weeks worth of backlogs
rotate 4

# create new (empty) log files after rotating old ones
create

# use date as a suffix of the rotated file
dateext

# uncomment this if you want your log files compressed
#compress

# 包含自定义配置目录
include /etc/logrotate.d

# no packages own wtmp and btmp -- we'll rotate them here
/var/log/wtmp {
    monthly
    create 0664 root utmp
        minsize 1M
    rotate 1
}

/var/log/btmp {
    missingok
    monthly
    create 0600 root utmp
    rotate 1
}

# system-specific logs may be also be configured here.

这个主配置文件中定义了日志文件分割的通用参数。并且include /etc/logrotate.d表示其会加载/etc/logrotate.d的所有自定义配置文件,自定义配置文件中的配置可以覆盖掉通用配置

我们来到自定义配置文件的目录/etc/logrotate.d

尝试在该目录中创建一个日志分割配置test,对/opt/logtest目录中所有以.log结尾的文件进行分割

vim test

# test配置文件的内容
/opt/logtest/*.log {
    daily
    rotate 2
    copytruncate
    missingok
}

test配置的第一行指定要对哪个路径的哪些文件进行分割,然后携带的4个参数解释如下:

  • daily:按天切割。触发切割时如果时间不到一天不会执行切割。除了daily,还可以选monthly,weekly,yearly
  • rotate:对于同一个日志文件切割后最多保留的文件个数
  • copytruncate:将源日志文件切割成新文件后,清空并保留源日志文件。默认如果不启用该配置,分割后源日志文件将被删除。设置该值,以便分割后可以继续在源日志文件写入日志,等待下次分割
  • missingok:切割中遇到日志错误忽略

创建好配置以后,系统会在每天利用cron定时执行logrotate日志分割指令。这里我们为了看到效果,不等到系统自动执行,可以手动强制执行一次日志分割。强制执行会立即进行一次日志

# -v:显示执行日志
# -f:强制执行分割
logrotate -vf /etc/logrotate.d/test

执行前,事先在日志所在目录中创建2个测试日志文件

touch test1.log
touch test2.log

手动执行一次日志分割,观察执行日志可以发现,过程如下:

  • 先将源日志内容拷贝到分割后的文件
  • 清空源文件

此时分割后的文件名为源文件名后面加上.序号,序号从1开始

然后我们再次手动执行一次分割,此时执行过程如下:

  • 将第一次分割后的日志文件test1.log.1重命名为test1.log.2
  • 将源日志文件拷贝到此次分割后的文件,命名序号重新从1开始,为test1.log.1
  • 清空源日志文件

接着再次手动执行一次分割,此时执行过程如下:

  • 将之前分割后的日志文件test1.log.2重命名为test1.log.3,test1.log.1重命名为test1.log.2
  • 分割源日志文件,拷贝其内容到test1.log.1
  • 由于设置了rotate为2,即最多保留2个日志文件,所以此时要删除最早分割出的那个日志文件,即test1.log.3

总结一下logrotate日志分割的步骤:

1.默认分割后日志的命名为源日志名称+.序号(从1开始)。分割之前将所有之前分割出的日志文件重命名,序号往后移一位
2.执行分割,将源日志文件分割为源日志文件名.1。这样就保证了所有分割后的文件中,序号最小的是最新分割出的,序号最大的是最早分割出的
3.根据rotate设置,如果此次分割后文件数量大于rotate设置,那么删除序号最大的那个分割文件,也就是最旧的分割日志

实际开发中可以使用create代替copytruncate,它们的区别如下:

copytruncate先将源文件内容拷贝到分割后文件,再清空源文件,拷贝和清空之间有时间差,可能会丢失部分日志。另外拷贝操作在源文件比较大时消耗性能

create直接将源文件重命名为分割后文件,再创建一个与源文件名称相同的新文件,用于后续日志写入

/opt/logtest/*.log {
    daily
    rotate 2
    create  # 创建与源文件名称相同的新文件,用于后续日志写入,新文件的归属用户、权限与源文件相同
    missingok
}

但是要注意create即使创建新的文件后,如果没有主动通知应用程序,那么应用程序仍然会往旧的文件(即被重命名的那个分割后的文件)写入日志。所以此时在分割后要通知应用程序重新打开新的日志文件进行写入。以通知nginx为例,配置如下

/var/log/nginx/*.log {
    daily
    rotate 30
    create
    sharedscripts              # 所有的文件切割之后只执行一次下面脚本,通知nginx重新打开新的日志文件进行后续写入
    postrotate
        if [ -f /run/nginx.pid ]; then
            kill -USR1 `cat /run/nginx.pid`  # 通过USER1信号通知nginx重新打开日志文件
        fi
    endscript
}

综上,一般情况下如果应用程序提供了通知其打开新的日志文件的接口,那么推荐使用create续写日志;否则推荐使用copytruncate续写日志

注意:

  • /etc/logrotate.d中的自定义配置中,如果不配置rotate、daily等参数在强制手动执行时并不会继承默认的主配置/etc/logrotate.conf。比如不配置rotate时,并不会继承保留4个分割文件,而是等价于0,即不保留任何分割文件。所以自定义配置中推荐显式指定这些参数
  • 在系统crontab定时任务自动执行logrotate时,自定义配置会继承主配置文件中的参数
  • logrotate执行分割的时机要依赖于crontab定时任务,也就是说crontab定时任务每日触发时,logrotate才会读取相应配置,检查是否满足分割的条件决定是否执行分割。这意味着,在默认crontab每日触发logrotate的定时任务情况下,即便logrotate配置文件中配置的分割频率小于1天,也将按照1天的频率触发分割,除非修改crontab定时任务,将logrotate的任务触发频率修改为小于1天

2.2 分割文件压缩

我们可以通过如下设置对分割后的日志文件开启压缩

/opt/logtest/*.log {
    daily
    rotate 2
    copytruncate
    missingok
    compress           # 以gzip方式压缩
    nodelaycompress    # 所有分割后的文件都进行压缩
}

此时删除原有所有文件,重新创建测试日志文件test1.log和test2.log,然后手动执行分割,可以生成压缩后的.gz文件

一般可以将nodelaycompress改为delaycompress,这样分割后对最新的序号为1的文件不会进行压缩,对其他序号的文件进行压缩,这样可以方便我们查看最新的分割日志

2.3 按照时间分割

按照时间分割可以定时分割出一个日志,比如每天分割一次,配合其他参数可以完成保留最近n天日志的功能。以下配置可以实现每天分割一次日志,并且保留最近30天的分割日志

/opt/logtest/*.log {
    daily      # 每天分割一次
    rotate 30  # 保留最近30个分割后的日志文件
    copytruncate
    missingok
    dateext  # 切割后的文件添加日期作为后缀
    dateyesterday # 配合dateext使用,添加前一天的日期作为分割后日志的后缀
}

还是先删除原来的所有文件,重新创建

touch test{1,2}.log

再手动执行分割,此时生成的分割后的文件将不再以序号作为文件名结尾,而是以昨天的日期作为结尾

并且如果马上再手动执行一次分割,由于日期相同,不会像原来一样生成序号递增的新日志文件,此时相当于没有执行任何分割操作。即同一天只能分割一次,第二天再次执行才会分割出新的日期结尾的文件,所以此时设置rotate的值即为保留最近多少天日志的意思

此外,默认添加的日期后缀格式为yyyyMMdd,可以用dateformat自定义

/opt/logtest/*.log {
    daily      # 每天分割一次
    rotate 30  # 保留最近30个分割后的日志文件
    copytruncate
    missingok
    dateext  # 切割后的文件添加日期作为后缀
    dateyesterday # 配合dateext使用,添加前一天的日期作为分割后日志的后缀
    dateformat -%Y-%m-%d  # 格式为2022-02-08
}

2.4 按照文件大小分割

我们可以利用size配置指定当日志文件达到多大体积时才进行分割。以下配置指定了每天执行分割,但是只有当日志文件大于5M时才真正执行分割操作

/opt/logtest/*.log {
    daily      # 每天分割一次
    size 5M    # 源文件小于5M时不分割
    rotate 30  # 保留最近30个分割后的日志文件
    create
    missingok
    dateext  # 切割后的文件添加日期作为后缀
    dateyesterday # 配合dateext使用,添加前一天的日期作为分割后日志的后缀
}

注意:这个配置并不是说日志文件达到指定大小就自动执行分割,它还是要遵循定时任务。比如配置了daily只有到每天指定时间执行分割任务时,才会检查文件大小,对超过指定大小的文件进行分割

2.5 自定义每小时分割

logrotate实现每日定时执行日志分割的原理是通过cron定时任务,默认在/etc/cron.daily中包含logrotate可执行命令,所以系统每天会定时启动logrotate,然后它会根据配置中具体分割频率(daily、weekly等)以及其他条件(比如size)决定是否要真正执行分割操作

如果我们想要实现每小时进行一次分割,需要如下步骤:

  1. logrotate配置文件中指定分割频率为hourly
  2. 配置完以后,还需要在cron的每小时定时任务中加入logrotate,因为默认情况下只有/etc/cron.daily中包含logrotate可执行命令,我们要将它往/etc/cron.hourly中也拷贝一份,这样系统才会每小时调用一次logrotate去执行分割
cp /etc/cron.daily/logrotate /etc/cron.hourly/

2.6 自定义分割执行时间

logrotate 是基于cron 运行的,所以这个时间是由 cron 控制的,具体可以查询 cron 的配置文件/etc/crontab 。旧版CentOS 的cron 的配置文件是 /etc/crontab ,新版CentOS 改为 /etc/anacrontab

从上面的内容可以看出:

  • 如果机器 没有关机,默认 logrotate(配置文件里设置的是cron.daily)一般会在每天的3点05分到3点50分之间执行, 真实的延迟时间是RANDOM_DELAY + delay in minutes
  • 如果在3-22 这个时间段内服务器处于 关机状态,则 logrotate 会在机器开机5分钟后执行分割日志的操作

如果我们觉得每天凌晨3点多执行日志分割不合适,那么可以自定义分割执行时间。实现方式可以是:

  • 修改/etc/anacrontab中的定时执行时间,实际不推荐,可能会影响系统其他定时任务
  • 在/etc/logrotate.d以外的其他目录创建logrotate配置文件,然后利用crontab自定义cron表达式来执行logrotate对该配置进行分割操作

推荐采用crontab方式自定义执行时间,步骤如下:

在非/etc/logrotate.d目录创建logrotate配置文件,这是为了避免被系统的定时任务扫描到该配置而导致重复执行分割

添加 crontab 计划任务,在 root 用户下执行crontab -e进入 vim 模式,进行编辑

crontab -e
# 每天 23点59分进行日志切割
59 23 * * * /usr/sbin/logrotate -f /etc/logrotate_mytime/nginx

重启crontab

# centos6:
service crond restart

# centos7:
systemctl restart crond

nginx日志分割步骤

在/etc/logrotate.d中创建文件nginx,作为nginx日志分割的配置文件。指定每天执行一次分割,并且当文件大于5M时才进行分割。同时指定notifempty,当日志文件为空时不分割

/opt/docker-ws/nginx/logs/*.log {
    daily      # 每天分割一次
    size 5M    # 源文件小于5M时不分割
    rotate 30  # 保留最近30个分割后的日志文件
    copytruncate
    notifempty # 当日志文件为空时不分割
    missingok
    dateext  # 切割后的文件添加日期作为后缀
}

这样配置了以后系统会在凌晨3点多执行分割操作,执行结果会保存到/var/spool/mail/root中

查看结果发现提示权限不够而分割失败,这是因为开启了selinux导致,解决方案有如下2种:

1、关闭selinux/2、利用semanage修改待分割的日志文件所在目录的权限

# 开放/opt/logtest目录的权限
semanage fcontext -a -t var_log_t "/opt/logtest(/.*)?"
restorecon -Rv /opt/logtest

总结

到此这篇关于Nginx利用Logrotate日志分割的文章就介绍到这了,更多相关Nginx日志分割内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

(0)

相关推荐

  • Linux系统下nginx日志每天定时切割的脚本写法

    使用Linux系统自带的命令logrotate对Nginx日志进行切割. Nginx安装目录:/usr/local/nginx/ Nginx日志目录:/usr/local/nginx/logs/./usr/local/nginx/logs/nginx_logs/ 1.添加nginx日志切割脚本 cd /etc/logrotate.d #进入目录 vi /etc/logrotate.d/nginx #编辑脚本 /usr/local/nginx/logs/*.log /usr/local/nginx

  • 详解Nginx日志配置及日志切割

    日志配置 日志对于统计排错来说非常有利的.本文总结了nginx日志相关的配置如access_log.log_format.open_log_file_cache.log_not_found.log_subrequest.rewrite_log.error_log. nginx有一个非常灵活的日志记录模式.每个级别的配置可以有各自独立的访问日志.日志格式通过log_format命令来定义. ngx_http_log_module是用来定义请求日志格式的. 1. access_log指令 语法: a

  • nginx日志切割shell脚本

    一.脚本思路 第一步就是重命名日志文件,不用担心重命名后nginx找不到日志文件而丢失日志.在你未重新打开原名字的日志文件前,nginx还是会向你重命名的文件写日志,linux是靠文件描述符而不是文件名定位文件. 第二步向nginx主进程发送USR1信号. nginx主进程接到信号后会从配置文件中读取日志文件名称,重新打开日志文件(以配置文件中的日志名称命名),并以工作进程的用户作为日志文件的所有者. 重新打开日志文件后,nginx主进程会关闭重名的日志文件并通知工作进程使用新打开的日志文件.

  • Nginx日志按日期切割详解(按天切割)

    实现需求 本文实现的功能是在吗每天凌晨00:00把前一天的Nginx日志access.log重命名为access-xxxx-xx-xx.log格式,例如:access-2016-10-01.log,下面话不多说了,来看看详细的实现方法吧. 实现方法 脚本 vim /opt/nginx/cut_nginx_log.sh #!/bin/bash #此脚本用于自动分割Nginx的日志,包括access.log和error.log #每天00:00执行此脚本 将前一天的access.log重命名为acc

  • 图文详解nginx日志切割的实现

    目录 实现nginx的日志切割 面试题讨论: 总结 实现nginx的日志切割 (注:为什么要切割呢?因为当你用户访问量大的时候,可能日志也很大.) <1>:ll /usr/local/nginx/logs/  查看日志 (注:有两个日志,一个是访问日志,另一个是错误日志.) <2>:tail -f /usr/local/nginx/logs/access.log  查看访问日志 <3>:vim /opt/cut_nginx_log.sh  编写一个脚本 <4>

  • nginx日志模块及日志定时切割的方法

    一:作用 Ngx_http_log_module:定义日志格式,并且以指定的格式保存. 二:示例配置 log_format compression '$remote_addr - $remote_user [$time_local] ' '"$request" $status $bytes_sent ' '"$http_referer" "$http_user_agent" "$gzip_ratio"'; access_log

  • Nginx定时切割日志实现详解

    前言 Nginx日志默认情况下写入到一个文件中,为了区分各个域下的日志,我们一般会分开存储.即时这样,文件也会变的越来越大,非常不方便查看分析.通常我们是以每日来做统计的,下面来聊聊以日期来分隔Nginx日志. 配置 编写脚本 #!/bin/bash #初始化 LOGS_PATH=/usr/local/nginx/logs YESTERDAY=$(date -d "yesterday" +%Y%m%d) #按天切割日志 mv ${LOGS_PATH}/bbs.52itstyle.com

  • nginx日志切割脚本分享

    实现方法一 #!/bin/bash Logs_path="/data/Application/nginx/logs" Pid_path="/data/Application/nginx/nginx.pid" Month=`date +%Y-%m` Date=`date +%Y-%m-%d` Time=`date +%H` WaitTime=$((24*60*60)) LogCut() { cd $Logs_path mkdir -p $Month while tru

  • Nginx利用Logrotate实现日志分割的详细过程

    目录 前言 Logrotate用法 1.安装 2.基本用法详解 2.1 入门 2.2 分割文件压缩 2.3 按照时间分割 2.4 按照文件大小分割 2.5 自定义每小时分割 2.6 自定义分割执行时间 nginx日志分割步骤 总结 前言 nginx默认没有提供对日志文件的分割功能,所以随着时间的增长,access.log和error.log文件会越来越大,尤其是access.log,其日志记录量比较大,更容易增长文件大小,影响日志写入性能 分割nginx日志的方法有很多,这里推荐利用Logrot

  • springboot利用AOP完成日志统计的详细步骤

    目录 1.创建日志表 2.创建实体类 3.创建枚举类 4.创建自定义注解 5.获取ip的util 6.线程池util 7.HttpServletRequest实现类 8.添加过滤器 9.添加AOP核心类 10.接口测试 步骤写的很详细,可以直接复制拿来用的,其中用到了过滤器.自定义注解以及AOP切面,来完成日志记录统计,感兴趣的收藏起来,以后遇到了可以直接用. 可能步骤会比较多,但是整体跟着思路下来,应该没什么大问题的. 项目用到了过滤器,可能有的人会不理解,之所以用过滤器是因为想要在日志记录p

  • Nginx将http转换成https的详细过程

    http 大家都知道是不安全的 然后想换成https 申请ssl证书 1.你得先有ssl证书(阿里云为例) 然后就是配置一下 审核完成之后就是下载证书了 下载完会有一个压缩包 你把压缩包解压放入你nginx.conf目录下就可以了 /www/server/nginx/conf (宝塔对应的目录) 重点来了 配置 nginx.conf server { listen 443 ssl; #存放域名或者你服务的路径 server_name localhost; #把证书放进conf目录下 然后就是对应

  • springboot利用@Aspect实现日志工具类的详细代码

    目录 一.导包 二.在启动类上进行注解自动扫描 三.工具类 四.结果 一.导包 <dependency> <groupId>org.aspectj</groupId> <artifactId>aspectjrt</artifactId> <version>1.8.12</version> </dependency> <dependency> <groupId>org.aspectj<

  • Nginx利用Lua+Redis实现动态封禁IP的方法

    一.背景 我们在日常维护网站中,经常会遇到这样一个需求,为了封禁某些爬虫或者恶意用户对服务器的请求,我们需要建立一个动态的 IP 黑名单.对于黑名单之内的 IP ,拒绝提供服务. 本文给大家介绍的是Nginx利用Lua+Redis实现动态封禁IP的方法,下面话不多说了,来一起看看详细的介绍吧 二.架构 实现 IP 黑名单的功能有很多途径: 1.在操作系统层面,配置 iptables,拒绝指定 IP 的网络请求: 2.在 Web Server 层面,通过 Nginx 自身的 deny 选项 或者

  • CentOS 7中Nginx日志定时拆分实现过程详解

    一.编写拆分脚本(splitNginxLog.sh) * 因为本例中设置每天0点进行日志的拆分,所以folder和rq均设置采用昨天的日期进行归档. #!/bin/bash folder=`date -d yesterday +%Y%m` rq=`date -d yesterday +%Y%m%d` # 原始日志路径 logs_path="/var/log/nginx/sitename.com/" # 日志备份路径 logs_backup_path="/var/log/ngi

  • Nginx下配置Https证书详细过程

    一.Http与Https的区别 HTTP:是互联网上应用最为广泛的一种网络协议,是一个客户端和服务器端请求和应答的标准(TCP),用于从WWW服务器传输超文本到本地浏览器的传输协议,它可以使浏览器更加高效,使网络传输减少. HTTPS:是以安全为目标的HTTP通道,简单讲是HTTP的安全版,即HTTP下加入SSL层,HTTPS的安全基础是SSL,因此加密的详细内容就需要SSL.HTTPS协议的主要作用可以分为两种:一种是建立一个信息安全通道,来保证数据传输的安全:另一种就是确认网站的真实性. H

  • Nginx纯配置实现日志实时上报的思路与方法

    目录 前言 实现思路 实现步骤 1. 编译 Nginx 2. 配置文件如下 总结 前言 Nginx 作为常用的负载均衡网关. 会产生大量的日志. 但是由于 Nginx 的配置文件是一种声明式的编程范式, 不方便描述流程控制, 因此不能通过简单的指令实现日志的上报. 通常 Nginx 的日志上报是需要写一个shell脚本或其他语言的脚本来定时解析 Nginx 的 log 文件, 然后进行上报. 利用 NJS 模块, 可以实现实时的日志上报. 但是由于 NJS 模块支持的指令的限制, 无法通过单一指

  • 聊聊配置 Nginx 访问与错误日志的问题

    目录 配置Nginx访问日志 配置错误日志 日志文件的位置 读取和理解Nginx日志文件 Nginx是一个开放源代码的高性能HTTP和反向代理服务器,负责处理Internet上某些最大站点的负载.在管理NGINX网络服务器时,你要执行的最常见任务之一就是检查日志文件. 在对服务器或应用程序问题进行故障排除时,知道如何配置和读取日志非常有用,因为它们提供了详细的调试信息. Nginx用两种类型的日志记录其事件:访问日志和错误日志.访问日志记录有关客户端请求的信息,错误日志记录有关服务器和应用程序问

  • python+logging+yaml实现日志分割

    本文实例为大家分享了python+logging+yaml实现日志分割的具体代码,供大家参考,具体内容如下 1.建立log.yaml文件 version: 1 disable_existing_loggers: False formatters: simple: format: "%(asctime)s - %(filename)s - %(levelname)s - %(message)s" datefmt: '%F %T' handlers: console: class: log

随机推荐