对于一个应用程序来说日志记录是必不可少的一部分。线上问题追踪,基于日志的业务逻辑统计分析等都离不日志。java领域存在多种日志框架,目前常用的日志框架包括Log4j 1,Log4j 2,Commons Logging,Slf4j,Logback,Jul
PS:Logback和Log4J的区别可以这样理解,就是在Log4J上进行优化的 相当于增强版的
Slf4j而这个只是一个抽象的接口,并未有具体实现类类似JDBC一样提供了日志接口标准,如果jar包引入了Logback和Log4J,那么就实现了Slf4j接口具体方法,Slf4j只是一个门面模式,facade层
目前比较流行的组合无疑是Slf4j+Logback,那么原因有几点:
1、Logback是springboot自带的,也就说如果单独使用Logback都不需要引入任何jar,当然此处是和Slf4j进行组合所以需要引入是为了实现Slf4j
2、Slf4j和Logback出于同一个作者自然亲和力要强些
3、Logback拥有更好的性能。Logback声称:某些关键操作,比如判定是否记录一条日志语句的操作,其性能得到了显著的提高。这个操作在Logback中需要3纳秒,而在Log4J中则需要30纳秒。LogBack创建记录器(logger)的速度也更快:13毫秒,而在Log4J中需要23毫秒。更重要的是,它获取已存在的记录器只需94纳秒,而Log4J需要2234纳秒,时间减少到了1/23。跟JUL相比的性能提高也是显著的
4、Logback文档免费。Logback的所有文档是全面免费提供的,不象Log4J那样只提供部分免费文档而需要用户去购买付费文档
首先知道logback是由三个模块组合
Logback是由log4j创始人设计的又一个开源日志组件。Logback当前分成三个模块:
<!-- Slf4j 依赖 --> <dependency> <groupId>org.slf4j</groupId> <artifactId>slf4j-api</artifactId> <version>1.7.30</version> </dependency> <!-- logback 依赖 --> <dependency> <groupId>ch.qos.logback</groupId> <artifactId>logback-classic</artifactId> <version>1.2.3</version> </dependency> <!-- Junit依赖 用于单元测试--> <dependency> <groupId>junit</groupId> <artifactId>junit</artifactId> <version>4.13</version> </dependency>
import org.junit.Test; import org.slf4j.Logger; import org.slf4j.LoggerFactory; public class Slf4jTest { public static final Logger LOGGER = LoggerFactory.getLogger(Slf4jTest.class); @Test public void test01(){ //日志输出 LOGGER.error("error"); LOGGER.warn("wring"); LOGGER.info("info"); LOGGER.debug("debug"); LOGGER.trace("trance"); //占位符输出 String name = "bysen"; Integer age = 24; LOGGER.info("姓名{},年龄{}",name,age); //异常处理 try{ int i =1/0; }catch (Exception e){ LOGGER.error("发生异常:",e); } } }
PS:每次如果 public static final Logger LOGGER = LoggerFactory.getLogger(Slf4jTest.class);
比较麻烦 ,直接使用注解@slf4j
在slf4j中,从小到大的日志级别依旧是trace、debug、info、warn、error
<?xml version="1.0" encoding="UTF-8"?> <configuration debug="true" scan="true" scanPeriod="1 seconds"> <contextName>logback</contextName> <!--定义参数,后面可以通过${app.name}使用--> <property name="app.name" value="logback_test"/> <!--ConsoleAppender 用于在屏幕上输出日志--> <appender name="stdout" class="ch.qos.logback.core.ConsoleAppender"> <!--定义了一个过滤器,在LEVEL之下的日志输出不会被打印出来--> <!--这里定义了DEBUG,也就是控制台不会输出比ERROR级别小的日志--> <filter class="ch.qos.logback.classic.filter.ThresholdFilter"> <level>DEBUG</level> </filter> <!-- encoder 默认配置为PatternLayoutEncoder --> <!--定义控制台输出格式--> <encoder> <pattern>%d [%thread] %-5level %logger{36} [%file : %line] - %msg%n</pattern> </encoder> </appender> <appender name="file" class="ch.qos.logback.core.rolling.RollingFileAppender"> <!--定义日志输出的路径--> <!--这里的scheduler.manager.server.home 没有在上面的配置中设定,所以会使用java启动时配置的值--> <!--比如通过 java -Dscheduler.manager.server.home=/path/to XXXX 配置该属性--> <file>${scheduler.manager.server.home}/logs/${app.name}.log</file> <!--定义日志滚动的策略--> <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"> <!--定义文件滚动时的文件名的格式--> <fileNamePattern>${scheduler.manager.server.home}/logs/${app.name}.%d{yyyy-MM-dd.HH}.log.gz </fileNamePattern> <!--60天的时间周期,日志量最大20GB--> <maxHistory>60</maxHistory> <!-- 该属性在 1.1.6版本后 才开始支持--> <totalSizeCap>20GB</totalSizeCap> </rollingPolicy> <triggeringPolicy class="ch.qos.logback.core.rolling.SizeBasedTriggeringPolicy"> <!--每个日志文件最大100MB--> <maxFileSize>100MB</maxFileSize> </triggeringPolicy> <!--定义输出格式--> <encoder> <pattern>%d [%thread] %-5level %logger{36} [%file : %line] - %msg%n</pattern> </encoder> </appender> <!--root是默认的logger 这里设定输出级别是debug--> <root level="trace"> <!--定义了两个appender,日志会通过往这两个appender里面写--> <appender-ref ref="stdout"/> <appender-ref ref="file"/> </root> <!--对于类路径以 com.example.logback 开头的Logger,输出级别设置为warn,并且只输出到控制台--> <!--这个logger没有指定appender,它会继承root节点中定义的那些appender--> <logger name="com.example.logback" level="warn"/> <!--通过 LoggerFactory.getLogger("mytest") 可以获取到这个logger--> <!--由于这个logger自动继承了root的appender,root中已经有stdout的appender了,自己这边又引入了stdout的appender--> <!--如果没有设置 additivity="false" ,就会导致一条日志在控制台输出两次的情况--> <!--additivity表示要不要使用rootLogger配置的appender进行输出--> <logger name="mytest" level="info" additivity="false"> <appender-ref ref="stdout"/> </logger> <!--由于设置了 additivity="false" ,所以输出时不会使用rootLogger的appender--> <!--但是这个logger本身又没有配置appender,所以使用这个logger输出日志的话就不会输出到任何地方--> <logger name="mytest2" level="info" additivity="false"/> </configuration>
<fileNamePattern>${scheduler.manager.server.home}/logs/${app.name}.%d{yyyy-MM-dd.HH}.log.gz </fileNamePattern> <!--60天的时间周期,日志量最大20GB--> <maxHistory>60</maxHistory> <!-- 该属性在 1.1.6版本后 才开始支持--> <totalSizeCap>20GB</totalSizeCap>
这种形成了xx.2021-12-10.log.01 xx.2021-12-10.log.02,每个文件最大是60M,所有当天文件不超过20G
<!--记录druid-sql的记录--> <logger name="com.adups.vota.upgrade.mapper" level="debug" additivity="false"> <appender-ref ref="stdout"/> <appender-ref ref="logfile"/> </logger>