log4j2最佳实践6
log4j2教程【RollingFileAppender】-CSDN博客
说明
rollover 表示的是当日志文件大小满足指定大小后,就生成一个新的文件的过程。
RollingFileAppender
RollingFileAppender是一个OutputStreamAppender,它(会把日志)写入到filename参数命名的文件中,并且会根据TriggeringPolicy和RolloverPolicy来rollover(rolls the file over)。RollingFileAppender会使用RollingFileManager(继承OutputStreamManager)来实际执行文件的I/O和执行rollover。尽管不能共享来做不同配置的RolloverFileAppenders,但是如果Manager可以访问的话,那么RolloverFileAppenders可以(进行共享)。
例如:在一个servlet容器中的两个web应用程序,他们有自己的配置,如果他们Log4j是共用一个类加载器(ClassLoader)那么就可以安全的写入到一个文件中。
RollingFileAppender 需要TriggeringPolicy和RolloverStrategy。triggering policy决定是否应该执行rollover的操作,而RolloverStrategy定义了应该如何完成rollover。如果RolloverStrategy没有配置的话,RollingFileAppender将使用DefaultRolloverStrategy。从log4j2.5版本开始,在DefaultRolloverStrategy中配置的自定义删除操作在rollover时将被执行。
从2.8版本开始,如果在DirectWriteRolloverStrategy中没有配置文件名,将使用DefaultRolloverStrategy进行替换。
RollingFileAppender不支持文件锁的。
这里rollover的操作可以理解为:当日志文件大小满足指定大小后,就生成一个新的文件。
RollingFileAppender参数
| 参数名 | 类型 | 描述 |
|---|---|---|
| append | boolean | 默认为true,记录追加到文件的最后,否则就先清除以前的记录再写入 |
| bufferedIO | boolean | 默认true,记录将会写入到缓存区,当缓存区满的时候,就会写入磁盘。或者如果设置immediateFlush将会立即写入。文件锁定不能和bufferedIO一起使用。 |
| bufferSize | int | 当bufferedIO设置为true是,默认是8192 bytes |
| createOnDemand | boolean | 默认为false,该appender按需创建文件,当日志事件通过所有的filters并且通过路由指向了该appender,该appender仅仅创建该文件 |
| filter | Filter | 过滤器决定事件是否应该由这个Appender来处理。通过使用CompositeFilter来使用多个Filter |
| fileName | String | 要写入的文件的名称。如果文件或其父目录不存在,它们都将被创建出来 |
| filePattern | String | 压缩日志文件的文件名的模式。该模式的格式取决于所使用的RolloverPolicy。DefaultRolloverPolicy将接受兼容SimpleDateFormat的日期/时间模式和/或者%i(代表整数计数器)。这个模式也支持运行时插值,所以任何的查找( eg:DateLookup)都可以包含在模式中 |
| immediateFlush | boolean | 默认为true,每次写入都会执行flush。这可以保证每次数据都被写入磁盘,但是会影响性能。在同步的loggers中每次写入执行flush,那就非常有用。异步loggers和appenders将会在一系列事件结束后自动执行flush,即使设置为false。这也保证了数据写入到磁盘而且很高效 |
| layout | Layout | 这个Layout用于格式化LogEvent.如果没有提供默认的layout,默认为layout模式为%m%n。 |
| name | String | 该Appender名称 |
| policy | TriggeringPolicy | 用于决定是否发生rollover的策略 |
| strategy | RolloverStrategy | 用于决定压缩文件的名称和路径 |
| ignoreExceptions | boolean | 默认为true,遇到异常时,会将事件追加到内部日志并忽略它。设置false时,异常会传递给调用者,当这个appender被FailoverAppender包裹时,必须设置为false |
Triggering Policies
Composite Triggering Policy
Composite Triggering Policy组合了多个triggering policies,如果配置的策略中的任何一个返回true,则返回true。CompositeTriggeringPolicy简单的通过在policies元素包裹其他的policies来配置。
例如,以下XML片段定义了当JVM启动时,当日志大小达到二十兆字节以及当前日期与日志的开始日期不匹配时滚动日志的策略。
<Policies>
<OnStartupTriggeringPolicy />
<SizeBasedTriggeringPolicy size="20 MB" />
<TimeBasedTriggeringPolicy />
</Policies>
Cron Triggering Policy
基于cron表达式的CronTriggeringPolicy触发rollover。
CronTriggeringPolicy 参数
| 参数名称 | 类型 | 描述 |
|---|---|---|
| schedule | String | cron表达式。该表达式和Quartz调度所允许的表达式相同,有关表达式的完整描述,请参阅CronExpression |
| evaluateOnStartup | boolean | 在启动时,将根据文件的最后修改时间戳评估cron表达式。如果cron表达式表示在该时间和当前时间之间应该发生rollover,则文件将立即rollover。 |
OnStartup Triggering Policy
如果日志文件比当前jvm启动时间更早以及满足或者超过最小文件的大小就会触发rollover
OnStartupTriggeringPolicy 参数说明:
| 参数名称 | 类型 | 描述 |
|---|---|---|
| minSize | long | 文件必定发生rollover操作的最小尺寸。要是大小为0的话,那么无论文件大小是多少都将引起rollover。默认值为1,这将阻止空文件发送rollover |
SizeBased Triggering Policy
SizeBased Triggering Policy:一旦文件大小达到指定大小后,就会发送rollover。
该策略接受一个interval属性和modulate布尔属性。其中interval属性表示的是,基于时间模式应该发送rollover的频率。
TimeBasedTriggeringPolicy参数说明:
| 参数名称 | 类型 | 描述 |
|---|---|---|
| interval | integer | 根据日期格式中最具体的时间单位来决定应该多久发生一次rollover。例如,在日期模式中小时为具体的时间单位,那么每4小时会发生4次rollover,默认值为1 |
| modulate | boolean | 表示是否调整时间间隔以使在时间间隔边界发生下一个rollover。例如:假设小时为具体的时间单元,当前时间为上午3点,时间间隔为4,第一次发送rollover是在上午4点,接下来是上午8点,接着是中午,接着是下午4点等发生。 |
Rollover Strategies
Default Rollover Strategy
默认的rollover strategy接受一个日期/时间模式和一个整数,其中这个整数,是RollingFileAppender本身指定的filePattern属性。如果date/time模式存在的话,它将会替换当前日期和时间的值。如果这个模式包含整数的话,它将会在每次发生rollover时,进行递增。如果模式同时包含date/time和整数,那么在模式中,整数会递增直到结果中的data/time模式发生改变。如果文件模式是以".gz", ".zip", ".bz2", ".deflate", ".pack200", or ".xz"结尾的,将会与后缀相匹配的压缩方案进行压缩文件。格式为:bzip2, Deflate, Pack200 和 XZ需要Apache Commons Compress,此外,XZ需要XZ for Java
该模式还可以包含可以在运行时解析的查找引用,如下面的示例所示:
默认的rollover策略支持三种增加计数的方式。第一种叫做:fixed window策略。为了说明它的工作原理,假设min属性设置为1,max属性设置为3,文件名为“foo.log”,文件名模式为:foo-%i.log。
| rollover次数 | 输出的目标 | 压缩的日志文件 | 描述 |
|---|---|---|---|
| 0 | foo.log |
- | 所有的日志都输出到初始文件中 |
| 1 | foo.log |
foo-1.log | 在第一次rollover时,foo.log会被重命名为foo-1.log。同时会创建一个新的foo.log并开始写入。 |
| 2 | foo.log |
foo-1.log, foo-2.log | 在第二次发生rollover时,foo-1.log会重命名为foo-2.log并且foo.log会重命名为foo-1.log。同时会创建一个新的foo.log并开始写入。 |
| 3 | foo.log | foo-1.log, foo-2.log, foo-3.log | 在第三次发生rollover时,foo-2.log会重命名为foo-3.log。foo-1.log重命名为foo-2.log,foo.log会重命名为foo-1.log。同时会创建一个新的foo.log并开始写入。 |
| 4 | foo.log | foo-1.log, foo-2.log, foo-3.log | 在第四次和随后的rollover时,foo-3.log会被删除,foo-2.log重命名为foo-3.log。foo-1.log重命名为foo-2.log。foo.log重命名为foo-1.log。后面同理 |
相比之下,当 fileIndex属性设置了max,其他设置和上面相同,将执行以下操作:
| rollover次数 | 输出的目标 | 压缩的日志文件 | 描述 |
|---|---|---|---|
| 0 | foo.log | - | 所有的日志都输出到初始文件中 |
| 1 | foo.log | foo-1.log | 在第一次rollover时,foo.log会被重命名为foo-1.log。同时会创建一个新的foo.log并开始写入。 |
| 2 | foo.log | foo-1.log foo-2.log | 在第二次rollover时,foo.log重命名为foo-2.log。同时会创建一个新的foo.log并开始写入。 |
| 3 | foo.log | foo-1.log foo-2.log foo-3.log | 在第三次发生rollover时,fool.log重命名为foo-3.log,同时会创建一个新的foo.log并开始写入。 |
| 4 | foo.log | foo-1.log foo-2.log foo-3.log | 在第四次和随后的rollover时,foo-1.log会被删除,foo-2.log重命名为foo-1.log,foo-3.log重命名为foo-2.log,foo.log重命名为foo-3.log。同时会创建一个新的foo.log并开始写入。 |
最后,从2.8版本开始,如果fileIndex属性设置为nomax,那么最大和最小值,都将会被忽略掉,文件编号将从1开发增加,并且每次rollover时递增都从编码最大开始(项目于max效果),而且没有文件数的限制。
DefaultRolloverStrategy参数
| 参数名称 | 类型 | 描述 |
|---|---|---|
| fileIndex | String | 如果设置了max(默认就是),文件索引(编号)高的比低的更 新些。如果设置min,文件重命名将遵循Fixed Window策略 |
| min | integer | 计数器的最小值。默认值为1。 |
| max | integer | 计数器的最大值。一旦达到这个值,旧的档案将在随后的rollover中被删除。 |
| compressionLevel | integer | 设置压缩级别0-9,其中0=无,1=最佳速度,通过9=最佳压缩。只适用于ZIP文件。 |
DirectWrite Rollover Strategy
DirectWriteRolloverStrategy会将日志事件会直接写入文件模式表示的文件中去。使用这个策略不会执行文件重命名。如果基于大小的触发策略导致在指定的时间段内写入多个文件,则它们将从一个编号开始,并持续递增,直到发生基于时间的rollover。
警告:如果文件模式里有压缩的后缀,那么当应用程序关闭时,当前文件将不被压缩。此外,如果时间变化使得文件模式不再匹配当前文件,则它也不会在启动时被压缩。
DirectWriteRolloverStrategy 参数
| 参数名称 | 类型 | 描述 |
|---|---|---|
| maxFiles | String | 在与文件模式(file pattern)匹配的时间段内允许的最大文件数。如果这个数字被突破了,则最旧的文件将被删除。如果指定了,那么这个值必须大于1。如果值小于零或省略,则文件数不受限制。 |
| compressionLevel | integer | 设置压缩级别0-9,其中0=无,1=最佳速度,通过9=最佳压缩。只适用于ZIP文件。 |
①下面是使用RollingFileAppender的一个示例配置,并且是基于时间和大小的触发策略。其将会根据当前年和月份在未来7天内创建7个压缩包,并且使用gzip进行压缩。
<?xml version="1.0" encoding="UTF-8"?>
<Configuration status="warn" name="MyApp" packages="">
<Appenders>
<RollingFile name="RollingFile" fileName="logs/app.log"
filePattern="logs/$${date:yyyy-MM}/app-%d{MM-dd-yyyy}-%i.log.gz">
<PatternLayout>
<Pattern>%d %p %c{1.} [%t] %m%n</Pattern>
</PatternLayout>
<Policies>
<TimeBasedTriggeringPolicy />
<SizeBasedTriggeringPolicy size="250 MB"/>
</Policies>
</RollingFile>
</Appenders>
<Loggers>
<Root level="error">
<AppenderRef ref="RollingFile"/>
</Root>
</Loggers>
</Configuration>
②第二个例子显示一个rollover策略,最多保留20个文件:
<?xml version="1.0" encoding="UTF-8"?>
<Configuration status="warn" name="MyApp" packages="">
<Appenders>
<RollingFile name="RollingFile" fileName="logs/app.log"
filePattern="logs/$${date:yyyy-MM}/app-%d{MM-dd-yyyy}-%i.log.gz">
<PatternLayout>
<Pattern>%d %p %c{1.} [%t] %m%n</Pattern>
</PatternLayout>
<Policies>
<TimeBasedTriggeringPolicy />
<SizeBasedTriggeringPolicy size="250 MB"/>
</Policies>
<DefaultRolloverStrategy max="20"/>
</RollingFile>
</Appenders>
<Loggers>
<Root level="error">
<AppenderRef ref="RollingFile"/>
</Root>
</Loggers>
</Configuration>
③下面是使用RollingFileAppender的一个示例配置,并且是基于时间和大小的触发策略。其将会根据当前年和月份在未来7天内创建7个压缩包,并且每6小时即被6整除时,会使用gzip进行压缩每个文件。
<?xml version="1.0" encoding="UTF-8"?>
<Configuration status="warn" name="MyApp" packages="">
<Appenders>
<RollingFile name="RollingFile" fileName="logs/app.log"
filePattern="logs/$${date:yyyy-MM}/app-%d{yyyy-MM-dd-HH}-%i.log.gz">
<PatternLayout>
<Pattern>%d %p %c{1.} [%t] %m%n</Pattern>
</PatternLayout>
<Policies>
<!--这行区别-->
<TimeBasedTriggeringPolicy interval="6" modulate="true"/>
<SizeBasedTriggeringPolicy size="250 MB"/>
</Policies>
</RollingFile>
</Appenders>
<Loggers>
<Root level="error">
<AppenderRef ref="RollingFile"/>
</Root>
</Loggers>
</Configuration>
④此示例配置使用基于cron和基于大小的触发策略的RollingFileAppender,并且是无限制文件数量的直接写入到归档文件中。cron触发器是每小时发生rollover并且文件大小不得超过250M。
<?xml version="1.0" encoding="UTF-8"?>
<Configuration status="warn" name="MyApp" packages="">
<Appenders>
<RollingFile name="RollingFile" filePattern="logs/app-%d{yyyy-MM-dd-HH}-%i.log.gz">
<PatternLayout>
<Pattern>%d %p %c{1.} [%t] %m%n</Pattern>
</PatternLayout>
<Policies>
<CronTriggeringPolicy schedule="0 0 * * * ?"/>
<SizeBasedTriggeringPolicy size="250 MB"/>
</Policies>
</RollingFile>
</Appenders>
<Loggers>
<Root level="error">
<AppenderRef ref="RollingFile"/>
</Root>
</Loggers>
</Configuration>
⑤此示例和上面④大致一样,但是每小时保存的文件数量限制了为10:
<?xml version="1.0" encoding="UTF-8"?>
<Configuration status="warn" name="MyApp" packages="">
<Appenders>
<RollingFile name="RollingFile" filePattern="logs/app-%d{yyyy-MM-dd-HH}-%i.log.gz">
<PatternLayout>
<Pattern>%d %p %c{1.} [%t] %m%n</Pattern>
</PatternLayout>
<Policies>
<CronTriggeringPolicy schedule="0 0 * * * ?"/>
<SizeBasedTriggeringPolicy size="250 MB"/>
</Policies>
<DirectWriteRolloverStrategy maxFiles="10"/>
</RollingFile>
</Appenders>
<Loggers>
<Root level="error">
<AppenderRef ref="RollingFile"/>
</Root>
</Loggers>
</Configuration>
Log Archive Retention Policy(日志存档保留策略):Delete on Rollover
log4j-2.5开始引入了删除操作,使得用户更有效的的控制在rollover时间内删除文件,而不是使用DefaultRolloverStrategy max属性进行删除。删除操作允许用户配置一个或多个条件,选择要删除相对于基本目录的文件。
注意:删除任何文件这是允许的操作。不仅仅是rollover时的文件。所以使用这个操作时,一定要小心。使用testMode参数可以测试您的配置,而不会意外删除错误的文件。
Delete 参数:
| 参数名称 | 类型 | 描述 |
|---|---|---|
| basePath | String | 必参。从哪里扫描要删除的文件的基本路径。 |
| maxDepth | int | 要访问的目录的最大级别数。值为0表示仅访问起始文件(基本路径本身),除非被安全管理者拒绝。Integer.MAX_VALUE的值表示应该访问所有级别。默认为1,意思是指定基本目录中的文件。 |
| followLinks | boolean | 是否遵循符号链接默认值为false。 |
| testMode | boolean | 默认false。如果为true,文件将不会被删除,而是将信息打印到info级别的status logger,可以利用这个来测试,配置是否和我们预期的一样 |
| pathSorter | PathSorter | 一个实现了PathSorter接口的插件在选择删除文件前进行排序。默认是最近修改的文件排在前面 |
| pathConditions | PathCondition[] | 如果没有指定ScriptCondition,则为必需。一个或多个PathCondition元素。如果指定了多个条件,在删除之前,他们需要接受全部的路径。条件是可以嵌套的,在这种情况下,只有在外部路径被接受的情况下,才会去评估内部路径。如果条件没有嵌套,则可以按照任何顺序去评估。条件也可以通过IfAll、IfAny和IfNot组合复合条件。他们对于的是AND、OR、NOT。用户可以创建自定义条件或使用内置条件:IfFileName:接受路径(相对于基本路径)与正则表达式或glob匹配的文件。IfLastModified:接受与指定持续时间相同或更早的文件。IfAccumulatedFileCount :在file tree walk期间超过一些计数阈值后接受路径。IfAccumulatedFileSize:在file tree walk期间超过累积文件大小阈值后接受路径。ifAll:如果所有嵌套条件都接受它(逻辑与),则接受路径。嵌套条件可以按任何顺序进行评估。IfAny:如果其中一个嵌套条件接受(OR或OR),则接受路径。嵌套条件可以按任何顺序进行评估。IfNot:如果嵌套条件不接受(逻辑NOT),则接受路径。 |
| scriptCondition | ScriptCondition | 如果没有指定PathConditions,则为必需。指定脚本的ScriptCondition元素。ScriptCondition应包含一个Script,ScriptRef或ScriptFile元素,用于指定要执行的逻辑。有关配置ScriptFiles和ScriptRefs的更多示例,请参阅ScriptFilter文档。该脚本传递了许多参数,包括在基本路径下找到的路径列表(最多为maxDepth),并且必须返回具有要删除路径的列表。 |
IfFileName 条件参数:
| 参数名称 | 类型 | 描述 |
|---|---|---|
| glob | String | 如果regex没有指定的话,则必须。使用类似于正则表达式但是又具有更简单的有限模式语言来匹配相对路径(相对于基本路径) |
| regex | String | 如果glob没有指定的话,则必须。使用由Pattern类定义的正则表达式来匹配相对路径(相对于基本路径) |
| nestedConditions | PathCondition[] | 一组可选的嵌套PathConditions如果存在任何嵌套条件,则在它们删除文件之前,必须都接受。仅当外部条件接受文件(如果路径名称匹配)时,才会评估嵌套条件。 |
IfLastModified条件参数:
| 参数名称 | 类型 | 描述 |
|---|---|---|
| age | String | 必须。指定持续时间duration。该条件接受比指定持续时间更早或更旧的文件。 |
| nestedConditions | PathCondition[] | 一组可选的嵌套PathConditions如果存在任何嵌套条件,则在它们删除文件之前,必须都接受。仅当外部条件接受文件(如果文件足够老)时,才会评估嵌套条件。 |
IfAccumulatedFileCount 条件参数
| 参数名称 | 类型 | 描述 |
|---|---|---|
| exceeds | int | 必须。将要删除文件的计数阈值。也就是需要保留的文件数。 |
| nestedConditions | PathCondition[] | 一组可选的嵌套PathConditions如果存在任何嵌套条件,则在它们删除文件之前,必须都接受。仅当外部条件接受文件(如果超过阈值计数)时,才会评估嵌套条件。 |
IfAccumulatedFileSize 条件参数
| 参数名称 | 类型 | 描述 |
|---|---|---|
| exceeds | String | 必须。将删除文件累计阀值的大小。大小可以指定字节。后缀可以是KB, MB or GB例如:20MB。也就是要保留最接近该值大小的文件。 |
| nestedConditions | PathCondition[] | 一组可选的嵌套PathConditions如果存在任何嵌套条件,则在它们删除文件之前,必须都接受。仅当外部条件接受文件(如果超过了阈值累积文件大小)时,才会评估嵌套条件。 |
下面这个示例配置使用的是RollingFileAppender,并且使用的是cron触发策略,是在每天的午夜触发。归档存储的目录是基于当前年和月。在rollover时间内匹配删除基本目录下所有满足参数glob等于*/app-*.log.gz和超过60天或更早的文件。
<?xml version="1.0" encoding="UTF-8"?>
<Configuration status="warn" name="MyApp" packages="">
<Properties>
<Property name="baseDir">logs</Property>
</Properties>
<Appenders>
<RollingFile name="RollingFile" fileName="${baseDir}/app.log"
filePattern="${baseDir}/$${date:yyyy-MM}/app-%d{yyyy-MM-dd}.log.gz">
<PatternLayout pattern="%d %p %c{1.} [%t] %m%n" />
<CronTriggeringPolicy schedule="0 0 0 * * ?"/>
<DefaultRolloverStrategy>
<Delete basePath="${baseDir}" maxDepth="2">
<IfFileName glob="*/app-*.log.gz" />
<IfLastModified age="60d" />
</Delete>
</DefaultRolloverStrategy>
</RollingFile>
</Appenders>
<Loggers>
<Root level="error">
<AppenderRef ref="RollingFile"/>
</Root>
</Loggers>
</Configuration>
下面的示例配置使用的是RollingFileAppender并且触发策略是基于时间和文件大小。在未来100天内会创建100个归档,这些归档存储的目录是基于当前年和月的,并且会以gzip方式进行压缩每个归档,而且rollover是每小时发生一次。这个配置也将会删除匹配*/app-*.log.gz和超过30天或更早的文件。但是会保留大小进100G或者最近的10个文件,先到则为准(whichever comes first.)。我个人理解应该是以文件创建时间为准。
<?xml version="1.0" encoding="UTF-8"?>
<Configuration status="warn" name="MyApp" packages="">
<Properties>
<Property name="baseDir">logs</Property>
</Properties>
<Appenders>
<RollingFile name="RollingFile" fileName="${baseDir}/app.log"
filePattern="${baseDir}/$${date:yyyy-MM}/app-%d{yyyy-MM-dd-HH}-%i.log.gz">
<PatternLayout pattern="%d %p %c{1.} [%t] %m%n" />
<Policies>
<TimeBasedTriggeringPolicy />
<SizeBasedTriggeringPolicy size="250 MB"/>
</Policies>
<DefaultRolloverStrategy max="100">
<!--
Nested conditions: the inner condition is only evaluated on files
for which the outer conditions are true.
-->
<Delete basePath="${baseDir}" maxDepth="2">
<IfFileName glob="*/app-*.log.gz">
<IfLastModified age="30d">
<IfAny>
<IfAccumulatedFileSize exceeds="100 GB" />
<IfAccumulatedFileCount exceeds="10" />
</IfAny>
</IfLastModified>
</IfFileName>
</Delete>
</DefaultRolloverStrategy>
</RollingFile>
</Appenders>
<Loggers>
<Root level="error">
<AppenderRef ref="RollingFile"/>
</Root>
</Loggers>
</Configuration>
ScriptCondition 参数:
| 参数名称 | 类型 | 描述 |
|---|---|---|
| script | Script, ScriptFile or ScriptRef | Script元素是用于指定需要执行的逻辑。在基本路径下找到的路径列表,该脚本要是通过的,并且要以java.util.List<PathWithAttributes>返回删除的路径。 参考ScriptFilter文档,如何配置ScriptFilter和ScriptRefs 的示例。 |
Script 参数:
| 参数名称 | 类型 | 描述 |
|---|---|---|
| basePath | java.nio.file.Path | 删除操作开始扫描要删除的文件的目录。可用于相对路径列表中的路径。 |
| pathList | java.util.List | 在基本路径下找到路径列表直到指定的最大深度,优先排序最近修改的文件。该脚本可以自由修改并返回此列表。 |
| statusLogger | StatusLogger | StatusLogger通常用于在脚本执行期间记录内部事件。 |
| configuration | Configuration | 拥有此ScriptCondition的配置。 |
| substitutor | StrSubstitutor | StrSubstitutor用于替换查找变量。 |
| ? | String | 在配置中声明的任何属性 |
以下示例配置使用RollingFileAppender并且是cron触发策略,触发时间为每天午夜。归档存储目录是基于当前年和月的。该脚本将返回在基本目录下,日期为13号并且是星期五的rollover文件列表。删除操作将删除脚本返回的所有文件。
<?xml version="1.0" encoding="UTF-8"?>
<Configuration status="trace" name="MyApp" packages="">
<Properties>
<Property name="baseDir">logs</Property>
</Properties>
<Appenders>
<RollingFile name="RollingFile" fileName="${baseDir}/app.log"
filePattern="${baseDir}/$${date:yyyy-MM}/app-%d{yyyyMMdd}.log.gz">
<PatternLayout pattern="%d %p %c{1.} [%t] %m%n" />
<CronTriggeringPolicy schedule="0 0 0 * * ?"/>
<DefaultRolloverStrategy>
<Delete basePath="${baseDir}" maxDepth="2">
<ScriptCondition>
<Script name="superstitious" language="groovy"><![CDATA[
import java.nio.file.*;
def result = [];
def pattern = ~/\d*\/app-(\d*)\.log\.gz/;
pathList.each { pathWithAttributes ->
def relative = basePath.relativize pathWithAttributes.path
statusLogger.trace 'SCRIPT: relative path=' + relative + " (base=$basePath)";
// remove files dated Friday the 13th
def matcher = pattern.matcher(relative.toString());
if (matcher.find()) {
def dateString = matcher.group(1);
def calendar = Date.parse("yyyyMMdd", dateString).toCalendar();
def friday13th = calendar.get(Calendar.DAY_OF_MONTH) == 13 \
&& calendar.get(Calendar.DAY_OF_WEEK) == Calendar.FRIDAY;
if (friday13th) {
result.add pathWithAttributes;
statusLogger.trace 'SCRIPT: deleting path ' + pathWithAttributes;
}
}
}
statusLogger.trace 'SCRIPT: returning ' + result;
result;
]] >
</Script>
</ScriptCondition>
</Delete>
</DefaultRolloverStrategy>
</RollingFile>
</Appenders>
<Loggers>
<Root level="error">
<AppenderRef ref="RollingFile"/>
</Root>
</Loggers>
</Configuration>
官网地址:http://logging.apache.org/log4j/2.x/manual/appenders.html#RollingFileAppender
TimeBasedTriggeringPolicy参数说明:
| 参数名称 | 类型 | 描述 |
|---|---|---|
| interval | integer | 根据日期格式中最具体的时间单位来决定应该多久发生一次rollover。例如,在日期模式中小时为具体的时间单位,那么每4小时会发生4次rollover,默认值为1 |
| modulate | boolean | 表示是否调整时间间隔以使在时间间隔边界发生下一个rollover。例如:假设小时为具体的时间单元,当前时间为上午3点,时间间隔为4,第一次发送rollover是在上午4点,接下来是上午8点,接着是中午,接着是下午4点等发生。 |
由上图我们展开两个测试用例:
-
case 1:如何实现天粒度切分日志?

-
case 2: 如何实现小时粒度(基于秒)切分日志?

所以,log4j2中TimeBasedTriggeringPolicy切分文件策略,是基于filePattern中的%d{yyyy-MM-dd-HH-mm-ss}来决定到底采用哪种时间单位(天、小时、分钟、秒等)。
那上面两种方式有没有错误呢???逻辑上没问题,但是case 2却没有达到我们想要的,我们其实是想要达到凌晨0点切分时间的(而不是推延24小时)。
我们已经指定了 modulus(modulus就是modulate)为true,应该以0点自动校准进行文件切分时间规划的,然而,当我们设置了86400秒(也就是24小时)一切分的时候,却没有达到0点切分的目的,而是项目启动的当前时间推算24小时,这是为什么呢?
我们再来看下Log4j2基于时间切分逻辑底层org.apache.logging.log4j.core.appender.rolling.PatternProcessor判断逻辑(部分截图):

我们再进入increment函数查看下实现:
哦~原来如此,当我们指定了modulus时,它是根据我们的filePattern最后一位为基准0进行推延计算的。
也就是说,我们可以得出来如下的表格:
| filePattern | increment | prevFileTime(采用非时间戳方式表示) | nextFileTime(采用非时间戳方式表示) |
|---|---|---|---|
| yyyy-MM-dd-HH-mm-ss | 7200 | 2020-12-10-12-56-35 | 2020-12-10-14-56-00 |
| yyyy-MM-dd-HH-mm | 120 | 2020-12-10-12-56-35 | 2020-12-10-14-00-00 |
| yyyy-MM-dd-HH | 2 | 2020-12-10-12-56-35 | 2020-12-10-14-00-00 |
| yyyy-MM-dd | 1 | 2020-12-10-12-56-35 | 2020-12-11-00-00-00 |
| yyyy-MM | 1 | 2020-12-10-12-56-35 | 2021-01-01-00-00-00 |
| yyyy | 1 | 2020-12-10-12-56-35 | 2021-01-01-00-00-00 |
所以,这种略有些逆人性的实现逻辑,真的很容易踩坑。
但是说到底还是对log4j2切分策略不够熟悉,导致使用上有所偏差。
等后面有空,再对log4j2的disruptor使用也进行详细总结~
拓展
[1]. Logback如何按天切分日志
[2]. Log4j2的Policy触发策略与Strategy滚动策略配置详解
Log4j2日志滚动策略TimeBasedTriggeringPolicy的魔鬼槽点-CSDN博客
Log4j2是如何切分日志的呢?

rollingfileappender - Log4j2 - 整数计数器 %i 未随时间和大小滚动而重置 - 堆栈溢出 (stackoverflow.com)
根据 https://logging.apache.org/log4j/2.x/manual/appenders.html#rollingfileappender 此行为似乎是一个错误?
RollingFileAppender 需要一个 TriggeringPolicy 和一个 RolloverStrategy 的触发策略确定翻转是否 应该执行,而 RolloverStrategy 定义 应该进行翻转。如果未配置 RolloverStrategy, RollingFileAppender将使用DefaultRolloverStrategy。因为 log4j-2.5 中,可以在 DefaultRolloverStrategy 在翻转时运行。从 2.8 开始,如果没有文件名 ,则将使用 DirectWriteRolloverStrategy 而不是 DefaultRolloverStrategy 的
DirectWriteRolloverStrategy 导致写入日志事件 直接复制到 File 模式表示的文件。使用此策略 不执行文件重命名。如果基于大小的触发策略 导致在指定时间段内写入多个文件 它们将从 1 开始编号,并不断递增 ,直到发生基于时间的翻转。
1.引入相关的依赖
-
<dependency>
-
<groupId>org.springframework.boot</groupId>
-
<artifactId>spring-boot-starter</artifactId>
-
<exclusions>
-
<exclusion>
-
<groupId>org.springframework.boot</groupId>
-
<artifactId>spring-boot-starter-logging</artifactId>
-
</exclusion>
-
</exclusions>
-
</dependency>
-
-
-
<!-- 包含 mvc,aop 等jar资源 -->
-
<dependency>
-
<groupId>org.springframework.boot</groupId>
-
<artifactId>spring-boot-starter-web</artifactId>
-
<exclusions>
-
<!-- 切换log4j2日志读取 -->
-
<exclusion>
-
<groupId>org.springframework.boot</groupId>
-
<artifactId>spring-boot-starter-logging</artifactId>
-
</exclusion>
-
</exclusions>
-
</dependency>
-
-
-
<!-- 配置 log4j2 -->
-
<dependency>
-
<groupId>org.springframework.boot</groupId>
-
<artifactId>spring-boot-starter-log4j2</artifactId>
-
</dependency>
-
<!-- 加上这个才能辨认到log4j2.yml文件 -->
-
<dependency>
-
<groupId>com.fasterxml.jackson.dataformat</groupId>
-
<artifactId>jackson-dataformat-yaml</artifactId>
-
</dependency>
-
注意
一定要注意项目中原本的依赖,可能会有冲突,因为使用log4j2依赖一定要排除原本项目中的log4j、logback相关依赖。
我就在此处一直报错,但是最后也不知道哪里错了。。
如果一直报错,如下代码所示。就在右侧maven框中,将项目clean再install一下。
2.配置相应的log4j2.yml及application.yml文件
log4j2.yml
-
-
# 共有8个级别,按照从低到高为:ALL < TRACE < DEBUG < INFO < WARN < ERROR < FATAL < OFF。
-
# intLevel值依次为0,100,200,300,400,500,600,700
-
# intLevel 值越小,级别越高
-
Configuration:
-
#日志框架本身的输出日志级别
-
status: WARN
-
#自动加载配置文件的间隔时间,不低于5秒
-
monitorInterval: 5
-
-
Properties: # 定义全局变量
-
Property: # 缺省配置(用于开发环境)。其他环境需要在VM参数中指定,如下:
-
#测试:-Dlog.level.console=warn -Dlog.level.xjj=trace
-
#生产:-Dlog.level.console=warn -Dlog.level.xjj=info
-
- name: log.level.console
-
value: info
-
- name: log.path
-
value: ./${project.name}_log
-
- name: project.name
-
value: daily
-
- name: log.pattern
-
value: "%d{yyyy-MM-dd HH:mm:ss.SSS} -%5p ${PID:-} [%15.15t] %-30.30C{1.} : %m%n"
-
-
Appenders:
-
Console: #输出到控制台
-
name: CONSOLE
-
target: SYSTEM_OUT
-
PatternLayout: #日志消息格式
-
pattern: ${log.pattern}
-
# 启动日志
-
RollingFile:
-
- name: ROLLING_FILE
-
fileName: ${log.path}/daily/${project.name}.log #输出文件的地址
-
filePattern: "${log.path}/daily/$${date:yyyy-MM-dd}/${project.name}-%d{yyyy-MM-dd}-%i.log.gz" #文件生成规则
-
PatternLayout:
-
pattern: ${log.pattern}
-
Filters:
-
# 一定要先去除不接受的日志级别,然后获取需要接受的日志级别
-
ThresholdFilter: # 日志级别过滤器
-
- level: error # 日志级别
-
onMatch: DENY # 高于的拒绝
-
onMismatch: NEUTRAL # 低于的
-
- level: info
-
onMatch: ACCEPT
-
onMismatch: DENY
-
Policies:
-
SizeBasedTriggeringPolicy: # 日志拆分规则
-
size: "10MB"
-
TimeBasedTriggeringPolicy: # 按天分类
-
modulate: true
-
interval: 1
-
DefaultRolloverStrategy: # 单目录下,文件最多20个,超过会删除最早之前的
-
max: 20
-
# 错误日志
-
- name: EXCEPTION_ROLLING_FILE
-
ignoreExceptions: false
-
fileName: ${log.path}/exception/${project.name}_exception.log
-
filePattern: "${log.path}/exception/$${date:yyyy-MM-dd}/${project.name}-%d{yyyy-MM-dd}-%i.log.gz"
-
ThresholdFilter:
-
level: error
-
#onMatch="ACCEPT" 匹配该级别及以上
-
#onMatch="DENY" 不匹配该级别及以上
-
#onMismatch="ACCEPT" 表示匹配该级别以下的级别
-
#onMismatch="DENY" 不表示匹配该级别以下的级别
-
onMatch: ACCEPT
-
onMismatch: DENY
-
PatternLayout:
-
pattern: ${log.pattern}
-
Policies:
-
SizeBasedTriggeringPolicy: # 日志拆分规则
-
size: "10MB"
-
TimeBasedTriggeringPolicy: # 按天分类
-
modulate: true
-
interval: 1
-
DefaultRolloverStrategy: # 文件最多100个
-
max: 100
-
# 警告日志
-
- name: WARN_ROLLING_FILE
-
ignoreExceptions: false
-
fileName: ${log.path}/warn/${project.name}_warn.log
-
filePattern: "${log.path}/warn/$${date:yyyy-MM-dd-dd}/${project.name}-%d{yyyy-MM-dd}-%i.log.gz"
-
ThresholdFilter:
-
level: warn
-
#onMatch="ACCEPT" 匹配该级别及以上
-
#onMatch="DENY" 不匹配该级别及以上
-
#onMismatch="ACCEPT" 表示匹配该级别以下的级别
-
#onMismatch="DENY" 不表示匹配该级别以下的级别
-
onMatch: ACCEPT
-
onMismatch: DENY
-
PatternLayout:
-
pattern: ${log.pattern}
-
Policies:
-
SizeBasedTriggeringPolicy: # 日志拆分规则
-
size: "10MB"
-
TimeBasedTriggeringPolicy: # 按天分类
-
modulate: true
-
interval: 1
-
DefaultRolloverStrategy: # 文件最多100个
-
max: 20
-
# 用户行为日志
-
- name: ROLLING_FILE_USER
-
fileName: ${log.path}/user/user-${project.name}.log
-
filePattern: "${log.path}/user/$${date:yyyy-MM-dd}/user-${project.name}-%d{yyyy-MM-dd}-%i.log.gz"
-
PatternLayout:
-
pattern: ${log.pattern}
-
Filters:
-
# 一定要先去除不接受的日志级别,然后获取需要接受的日志级别
-
ThresholdFilter:
-
- level: error
-
onMatch: DENY
-
onMismatch: NEUTRAL
-
#onMismatch:NEUTRAL 交给下一个filter处理
-
- level: info
-
onMatch: ACCEPT
-
onMismatch: DENY
-
Policies:
-
SizeBasedTriggeringPolicy: # 日志拆分规则
-
size: "10MB"
-
TimeBasedTriggeringPolicy: # 按天分类
-
modulate: true
-
interval: 1
-
DefaultRolloverStrategy: # 文件最多100个
-
max: 100
-
-
Loggers:
-
Root:
-
# 共有8个级别,按照从低到高为:ALL < TRACE < DEBUG < INFO < WARN < ERROR < FATAL < OFF 选择all则输出全部的日志
-
level: info
-
AppenderRef:
-
- ref: CONSOLE
-
- ref: ROLLING_FILE
-
- ref: EXCEPTION_ROLLING_FILE
-
- ref: WARN_ROLLING_FILE
-
Logger:
-
- name: exception
-
level: debug
-
additivity: true #追加
-
AppenderRef:
-
- ref: EXCEPTION_ROLLING_FILE
-
-
#监听具体包下面的日志
-
# Logger: # 为com.xjj包配置特殊的Log级别,方便调试
-
- name: com.example.aspect
-
additivity: false
-
level: info
-
AppenderRef:
-
- ref: CONSOLE
-
- ref: ROLLING_FILE_USER
-
-
application.yml
指明log4j2.yml的位置(注意将原本springboot文件中内置日志的相关配置清除)
-
logging:
-
config: classpath:log4j2.yml
Log4j日志Pattern配置说明
日志格式
log4j.appender.logfile.layout.ConversionPattern=%d{yyyy-MM-dd HH:mm:ss.SSS} %5p [%15.15t] %36.36c:%-4.4L - %m%n
%d{yyyy-MM-dd HH:mm:ss.SSS} :指定日期的格式
%5p :指定日志级别最小宽度为5且右对齐(不足时左补空)
[%15.15t] :指定线程右对齐且最大(超过时左被截掉)最小为15位
%36.36c :指定日志全类名为右对齐且最大最小为36位
%-4.4L :指定日志发生行数为左对齐(不足时右补空)且最大最小为4位
%m%n :输出日志并换行
对齐方式
%10c :输出全类名称,最小长度10个字符,小于10则默认的情况下右对齐
%-10c :输出全类名称,最小长度10个字符,小于10则补空格左对齐
%.10c :输出全类名称,最大长度10个字符;大于10则从左边截取,小于10不补空格对齐
%20.30c :输出全类名称,小于20补空格,并且右对齐;大于30字符,就从左边截取超过的长度
SpringBoot 整合 log4j2 使用yml的配置_springboo log4j2配置文件共享-CSDN博客


浙公网安备 33010602011771号