一、引入pom依赖,若版本过低可能有些功能使用失败
<dependency>
<groupId>net.logstash.logback</groupId>
<artifactId>logstash-logback-encoder</artifactId>
<version>5.2</version>
</dependency>
二、在项目的resource目录下创建logback-spring.xml文件
在里面编写添加配置
<?xml version="1.0" encoding="UTF-8" ?>
<!-- 在此未说明属性为非必须的,那就表示属性必须设置 -->
<!--logback-spring.xml有严格的编写顺序从上往下解析,顺序不可颠倒-->
<!-- *****************最小配置文件结构介绍******************************* -->
<!--
<configuration>
<appender></appender> //存在1或多个,功能指定记录输出目的地
<root></root> //最多存在一个,根logger
<logger><logger> //存在1或多个,普通logger
</configuration>
-->
<!-- *************************各个标签详细介绍********************************** -->
<!-- debug(非必须)属性:true表示输出logback内部的日志信息(不影响配置和级别) ;
scan(非必须)属性:默认为false,true表示扫描配置文件的变化并自动重新配置,默认每隔1分钟扫描一次;
scanPeriod(非必须)属性:搭配scan属性使用,设置扫描的间隔时间
-->
<configuration debug="false" scan="true" scanPeriod="30 seconds">
<!-- 用于指定logger上下文名称,默认为default -->
<contextName>logback</contextName>
<springProperty scope="context" name="node" source="spring.cloud.client.ip-address" defaultValue="Unknow"></springProperty>
<springProperty scope="context" name="system" source="spring.application.name" defaultValue="Unknow"></springProperty>
<!-- 设置变量FILE_PATH,用于指定名为FILE的appender的目的文件存放的目录 -->
<property name="FILE_PATH" value="/home/scene/bin/logs/${system}"></property>
<!-- ************************常用的Appender************************************** -->
<!--
<appender>标签包含2个属性:name、class
name属性:指定appender名称;class属性:指定目的地类型 (比如ConsoleAppender、FileAppender等)
class属性的值决定了<appender>标签包含的子标签的种类。
-->
<!-- 该appender的功能是将记录信息以特定格式写到控制台 -->
<appender name="Console" class="ch.qos.logback.core.ConsoleAppender">
<!--encoder:将事件转换为字符串
默认配置为PatternLayoutEncoder类
encoder用于替代Layout,encoder扩展了Layout功能
Layout功能:只负责把事件转换为字符串,但是不能指定何时将记录写入到指定目的地
encoder功能:即负责把事件转换为字符串,也可以指定何时将记录写入到指定目的地
-->
<encoder>
<!-- 指定输出格式
%d{} :表示时间
%thread:请求记录所在的线程名
%-5level:用5位显示请求级别
%logger{36}:输出logger名,{36}表示logger名最大占用的字符位数,{0}表示最简短logger名(不包含包名)。
-->
<pattern>%d{HH:mm:ss.SSS} [%thread] traceId[%X{traceId}] %-5level %logger{36} -%msg%n</pattern>
</encoder>
</appender>
<!--
***********************以最小窗体为指定的滚动规则的appender*****************************
RollingFileAppender类型的appender中必须包含4个子标签:<file>、<rollingPolicy>、<triggerPolicy>、<encoder>
<rollingPolicy>标签用于指定滚动规则,该标签有一个属性class:用于指定实现具体的滚动规则的类。
<triggerPolicy>标签用于指定发生滚动的条件,该标签有一个属性class:用于指定具体滚动条件的类。
<rollingPolicy>和<triggerPolicy>中具体包含哪些子标签是由class属性指定的类来决定的,因为不同的类有不同的参数,从而需要不同的标签来传参
-->
<!-- 该appender的功能是将记录信息以特定格式写到文件,当文件达到20MB时,创建以特定规则新的 文件,之后的记录会写到新文件-->
<appender name="file" class="ch.qos.logback.core.rolling.RollingFileAppender">
<filter class="ch.qos.logback.classic.filter.ThresholdFilter">
<level>DEBUG</level>
</filter>
<!-- 在第一次触发滚动之前记录将会写到该文件中 -->
<file>${FILE_PATH}/file.log</file>
<!-- 滚动策略,按照时间滚动 TimeBasedRollingPolicy -->
<rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy">
<!-- 文件路径,定义了日志的切分方式——把每一天的日志归档到一个文件中,以防止日志填满整个磁盘空间 -->
<fileNamePattern>${FILE_PATH}/history/file.%d{yyyy-MM-dd}.%i.log</fileNamePattern>
<!-- 只保留最近60天的日志 -->
<maxHistory>60</maxHistory>
<!-- 用来指定日志文件的上线大小,那么到了这个值,就会删除旧的日志 -->
<!--<totalSizeCap>1GB</totalSizeCap>-->
<!--文件切割大小,达到此大小后文件将被切歌-->
<maxFileSize>50MB</maxFileSize>
</rollingPolicy>
<!-- 日志输出编码格式化 -->
<encoder>
<charset>UTF-8</charset>
<pattern>%d{HH:mm:ss.SSS} [%thread] traceId[%X{traceId}] %-5level %logger{36} -%msg%n</pattern>
</encoder>
</appender>
<!--json格式的日志-->
<appender name="json" class="ch.qos.logback.core.rolling.RollingFileAppender">
<filter class="ch.qos.logback.classic.filter.ThresholdFilter">
<level>DEBUG</level>
</filter>
<!-- 在第一次触发滚动之前记录将会写到该文件中 -->
<file>${FILE_PATH}/json.log</file>
<!-- 滚动策略,按照时间滚动 TimeBasedRollingPolicy -->
<rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy">
<!-- 文件路径,定义了日志的切分方式——把每一天的日志归档到一个文件中,以防止日志填满整个磁盘空间 -->
<fileNamePattern>${FILE_PATH}/history/json.%d{yyyy-MM-dd}.%i.log</fileNamePattern>
<!-- 只保留最近7天的日志 -->
<maxHistory>7</maxHistory>
<!-- 用来指定日志文件的上线大小,那么到了这个值,就会删除旧的日志 -->
<!--<totalSizeCap>1GB</totalSizeCap>-->
<!--文件切割大小,达到此大小后文件将被切歌-->
<maxFileSize>50MB</maxFileSize>
</rollingPolicy>
<!-- 日志输出编码格式化 -->
<encoder name="json" charset="UTF-8" class="net.logstash.logback.encoder.LogstashEncoder">
<fieldNames>
<timestamp>timestamp</timestamp>
</fieldNames>
<timestampPattern>yyyy-MM-dd HH:mm:ss.SSS</timestampPattern>
<throwableConverter class="net.logstash.logback.stacktrace.ShortenedThrowableConverter">
<maxDepthPerThrowable>30</maxDepthPerThrowable>
<maxLength>2048</maxLength>
<shortenedClassNameLength>20</shortenedClassNameLength>
<exclude>sun.reflect..*.invokem*</exclude>
<exclude>java.lang.reflect.*</exclude>
<exclude>org.springframework.aop.*</exclude>
<exclude>org.apache.*</exclude>
<!--<exclude>net.sf.cglib.proxy.*</exclude>-->
<exclude>org.springframework.cglib.proxy.*</exclude>
<rootCauseFirst>true</rootCauseFirst>
<inlineHash>true</inlineHash>
</throwableConverter>
</encoder>
</appender>
<!--异步输出器,使用异步方式日志输出-->
<appender name="file-async" class="ch.qos.logback.classic.AsyncAppender">
<!--本输出器内部使用上面定义的名为file的输出器-->
<appender-ref ref="file" />
</appender>
<!--
***********************常规级别过滤器的使用****************************************
本配置功能:过滤并接受请求级别为debug的请求,对于其他级别请求一律丢弃。
-->
<appender name="level_console" class="ch.qos.logback.core.ConsoleAppender">
<filter class="ch.qos.logback.classic.filter.LevelFilter">
<level>debug</level>
<onMatch>ACCEPT</onMatch>
<onMismatch>DENY</onMismatch>
</filter>
<encoder>
<pattern>%d{HH:mm:ss.SSS} [%thread] %-5level %logger{0} -%msg%n</pattern>
</encoder>
</appender>
<!--
***********************常规临界值滤器的使用****************************************
本配置功能:请求级别高于或等于info的请求响应NEUTRAL(进入下一个环节),低于info的级别请求响应DENY(表示丢弃)。
-->
<appender name="threshold_console" class="ch.qos.logback.core.ConsoleAppender">
<filter class="ch.qos.logback.classic.filter.ThresholdFilter">
<level>info</level>
</filter>
<encoder>
<pattern>%d{HH:mm:ss.SSS} [%thread] %-5level %logger{0} -%msg%n</pattern>
</encoder>
</appender>
<!-- appender的目的地为mysql数据库 -->
<!--<appender name="jdbc" class="ch.qos.logback.classic.db.DBAppender">-->
<!--<!– 这里只使用jdbc中的DriverManager获得连接,不使用任何数据源 –>-->
<!--<!– 由于xml文件中<&符号为特殊符号,需要转义 –>-->
<!--<connectionSource class="ch.qos.logback.core.db.DriverManagerConnectionSource">-->
<!--<driverClass>com.mysql.jdbc.Driver</driverClass>-->
<!--<url>jdbc:mysql://localhost:3306/logback?useUnicode=true&characterEncoding=utf8&serverTimezone=UTC</url>-->
<!--<user>root</user>-->
<!--<password>ok</password>-->
<!--</connectionSource>-->
<!--</appender>-->
<!-- ******以下DBAppender类型的appender的目的地为mysql数据库******** -->
<!--<appender name="c3p0_datasource" class="ch.qos.logback.classic.db.DBAppender">-->
<!--<!– 这里使用DataSource获得连接–>-->
<!--<connectionSource class="ch.qos.logback.core.db.DataSourceConnectionSource">-->
<!--<!– 实现DataSource的数据库连接池有很多,比如DBCP、c3p0、Druid等-->
<!--这里使用的是c3p0-->
<!--–>-->
<!--<dataSource class="com.mchange.v2.c3p0.ComboPooledDataSource">-->
<!--<user>root</user>-->
<!--<password>ok</password>-->
<!--<driverClass>com.mysql.jdbc.Driver</driverClass>-->
<!--<jdbcUrl>jdbc:mysql://localhost:3306/logback?useUnicode=true&characterEncoding=utf8</jdbcUrl>-->
<!--</dataSource>-->
<!--</connectionSource>-->
<!--</appender>-->
<!--<appender name="Druid_datasource" class="ch.qos.logback.classic.db.DBAppender">-->
<!--<!– 这里使用DataSource获得连接–>-->
<!--<connectionSource class="ch.qos.logback.core.db.DataSourceConnectionSource">-->
<!--<!– 实现DataSource的数据库连接池有很多,比如DBCP、c3p0、Druid等-->
<!--这里使用的是Druid-->
<!--–>-->
<!--<dataSource class="com.alibaba.druid.pool.DruidDataSource">-->
<!--<username>root</username>-->
<!--<password>ok</password>-->
<!--<driverClassName>com.mysql.jdbc.Driver</driverClassName>-->
<!--<url>jdbc:mysql://localhost:3306/logback?useUnicode=true&characterEncoding=utf8</url>-->
<!--</dataSource>-->
<!--</connectionSource>-->
<!--</appender>-->
<!--<appender name="dbcp_datasource" class="ch.qos.logback.classic.db.DBAppender">-->
<!--<!– 这里使用DataSource获得连接–>-->
<!--<connectionSource class="ch.qos.logback.core.db.DataSourceConnectionSource">-->
<!--<!– 实现DataSource的数据库连接池有很多,比如DBCP、c3p0、Druid等-->
<!--这里使用的是dbcp-->
<!--–>-->
<!--<dataSource class="org.apache.commons.dbcp.BasicDataSource">-->
<!--<username>root</username>-->
<!--<password>Zp970321</password>-->
<!--<driverClassName>com.mysql.jdbc.Driver</driverClassName>-->
<!--<url>jdbc:mysql://localhost:3306/logback?useUnicode=true&characterEncoding=utf8</url>-->
<!--</dataSource>-->
<!--</connectionSource>-->
<!--</appender>-->
<!-- level属性:指定根logger的分配级别 -->
<root level="debug">
<!-- ref属性:指定根logger关联的appender -->
<appender-ref ref="Console"/>
</root>
<!-- name:指定logger名称;level:指定logger的分配级别;additivity(非必须,默认为true):设置appender叠加性 -->
<logger name="demo" level="debug" additivity="false">
<appender-ref ref="file"/>
</logger>
<logger name="demo4" level="debug" additivity="false">
<appender-ref ref="level_console"/>
</logger>
<logger name="demo5" level="debug" additivity="false">
<appender-ref ref="threshold_console"/>
</logger>
<!--<logger name="demo6" level="debug" additivity="false">
<appender-ref ref="jdbc"></appender-ref>
</logger>
<logger name="demo7" level="debug" additivity="false">
<appender-ref ref="c3p0_datasource"/>
</logger>
<logger name="demo8" level="debug" additivity="false">
<appender-ref ref="Druid_datasource"/>
</logger>
<logger name="demo9" level="debug" additivity="false">
<appender-ref ref="dbcp_datasource"/>
</logger>-->
<!--默认、开发环境日志配置-->
<springProfile name="default,dev">
<root level="INFO">
<appender-ref ref="Console" />
<appender-ref ref="file" />
<appender-ref ref="json" />
</root>
<!-- 对于com.csrcb.service包及子包下的所有类,以DEBUG级别输出日志,输出位置继承root标签下的配置 -->
<!--<logger name="com.csrcb.service" level="DEBUG" additivity="true"></logger>-->
<!-- 对于com.csrcb.controller包及子包下的所有类,以DEBUG级别输出日志,且只使用名为file的Appender输出 -->
<!--<logger name="com.csrcb.controller" level="DEBUG" additivity="false">
<appender-ref ref="file"/>
</logger>-->
</springProfile>
<springProfile name="sit">
<root level="INFO">
<appender-ref ref="Console" />
<appender-ref ref="file" />
</root>
<!-- 打印SQL语句 -->
<!--<logger name="com.csrcb.dao" level="DEBUG" additivity="true"></logger>-->
</springProfile>
<springProfile name="product">
<root level="INFO">
<appender-ref ref="file-async" />
<appender-ref ref="json" />
</root>
<!-- 打印SQL语句 -->
<!--<logger name="com.csrcb.dao" level="DEBUG" additivity="true"></logger>-->
</springProfile>
</configuration>
这是json格式的日志,后续搭建elk日志集成的时候需要使用
三、编写过滤器为日志traceId设置全路径跟踪
@Slf4j
@WebFilter(filterName = "traceIdFilter",urlPatterns = "/*")
public class TraceIdFilter implements Filter {
/**
* 日志跟踪标识
*/
private static final String TRACE_ID = "traceId";
@Override
public void init(FilterConfig filterConfig) throws ServletException {
}
@Override
public void destroy() {
MDC.clear();
}
@Override
public void doFilter(ServletRequest servletRequest, ServletResponse servletResponse, FilterChain filterChain) throws IOException, ServletException {
MDC.put(TRACE_ID, UUID.randomUUID().toString());
filterChain.doFilter(servletRequest, servletResponse);
}
}
编写配置类,将自定义过滤器添加到配置中,使其生效
@Configuration
public class LogTraceIdConfig {
@Bean
public FilterRegistrationBean configureFilter1(){
FilterRegistrationBean bean = new FilterRegistrationBean<>();
bean.setName("filter1");//过滤器类名
bean.setFilter(new TraceIdFilter());
bean.setOrder(1);//如果有多个过滤器的,设置优先顺序,值越小越先
List<String> urlList = new ArrayList<>();
// bean.addInitParameter("","");
urlList.add("/*");//过滤的路径
bean.setUrlPatterns(urlList);
return bean;
}
}
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/12310.html