飞道的博客

你居然还去服务器上捞日志,搭个日志收集系统难道不香么

594人阅读  评论(0)

ELK日志收集系统进阶使用,本文主要讲解如何打造一个线上环境真实可用的日志收集系统。有了它,你就可以和去服务器上捞日志说再见了!

ELK环境安装

ELK是指Elasticsearch、Kibana、Logstash这三种服务搭建的日志收集系统,这里仅提供最新版本的docker-compose脚本和一些安装要点。

docker-compose脚本


  
  1. version: '3'
  2. services:
  3. elasticsearch:
  4. image: elasticsearch: 6.4 .0
  5. container_name: elasticsearch
  6. environment:
  7. - "cluster.name=elasticsearch" #设置集群名称为elasticsearch
  8. - "discovery.type=single-node" #以单一节点模式启动
  9. - "ES_JAVA_OPTS=-Xms512m -Xmx512m" #设置使用jvm内存大小
  10. - TZ=Asia/Shanghai
  11. volumes:
  12. - /mydata/elasticsearch/plugins:/usr/share/elasticsearch/plugins #插件文件挂载
  13. - /mydata/elasticsearch/data:/usr/share/elasticsearch/data #数据文件挂载
  14. ports:
  15. - 9200: 9200
  16. - 9300: 9300
  17. kibana:
  18. image: kibana: 6.4 .0
  19. container_name: kibana
  20. links:
  21. - elasticsearch:es #可以用es这个域名访问elasticsearch服务
  22. depends_on:
  23. - elasticsearch #kibana在elasticsearch启动之后再启动
  24. environment:
  25. - "elasticsearch.hosts=http://es:9200" #设置访问elasticsearch的地址
  26. - TZ=Asia/Shanghai
  27. ports:
  28. - 5601: 5601
  29. logstash:
  30. image: logstash: 6.4 .0
  31. container_name: logstash
  32. environment:
  33. - TZ=Asia/Shanghai
  34. volumes:
  35. - /mydata/logstash/logstash.conf:/usr/share/logstash/pipeline/logstash.conf #挂载logstash的配置文件
  36. depends_on:
  37. - elasticsearch #kibana在elasticsearch启动之后再启动
  38. links:
  39. - elasticsearch:es #可以用es这个域名访问elasticsearch服务
  40. ports:
  41. - 4560: 4560
  42. - 4561: 4561
  43. - 4562: 4562
  44. - 4563: 4563

安装要点

  • 使用docker-compose命令运行所有服务:
docker-compose up -d
  • 第一次启动可能会发现Elasticsearch无法启动,那是因为/usr/share/elasticsearch/data目录没有访问权限,只需要修改/mydata/elasticsearch/data目录的权限,再重新启动;
chmod 777 /mydata/elasticsearch/data/
  • Logstash需要安装json_lines插件。
logstash-plugin install logstash-codec-json_lines

分场景收集日志

这里为了方便我们查看日志,提出一个分场景收集日志的概念,把日志分为以下四种。

  • 调试日志:最全日志,包含了应用中所有DEBUG级别以上的日志,仅在开发、测试环境中开启收集;
  • 错误日志:只包含应用中所有ERROR级别的日志,所有环境只都开启收集;
  • 业务日志:在我们应用对应包下打印的日志,可用于查看我们自己在应用中打印的业务日志;
  • 记录日志:每个接口的访问记录,可以用来查看接口执行效率,获取接口访问参数。

Logback配置详解

要实现上面的分场景收集日志,主要通过Logback的配置来实现,我们先来了解下Logback的配置吧!

完全配置

在SpringBoot中,如果我们想要自定义Logback的配置,需要自行编写logback-spring.xml文件,下面是我们这次要使用的完全配置。


  
  1. <?xml version="1.0" encoding="UTF-8"?>
  2. <!DOCTYPE configuration>
  3. <configuration>
  4. <!--引用默认日志配置-->
  5. <include resource="org/springframework/boot/logging/logback/defaults.xml"/>
  6. <!--使用默认的控制台日志输出实现-->
  7. <include resource="org/springframework/boot/logging/logback/console-appender.xml"/>
  8. <!--应用名称-->
  9. <springProperty scope="context" name="APP_NAME" source="spring.application.name" defaultValue="springBoot"/>
  10. <!--日志文件保存路径-->
  11. <property name="LOG_FILE_PATH" value="${LOG_FILE:-${LOG_PATH:-${LOG_TEMP:-${java.io.tmpdir:-/tmp}}}/logs}"/>
  12. <!--LogStash访问host-->
  13. <springProperty name="LOG_STASH_HOST" scope="context" source="logstash.host" defaultValue="localhost"/>
  14. <!--DEBUG日志输出到文件-->
  15. <appender name="FILE_DEBUG"
  16. class= "ch.qos.logback.core.rolling.RollingFileAppender">
  17. <!--输出DEBUG以上级别日志-->
  18. <filter class="ch.qos.logback.classic.filter.ThresholdFilter">
  19. <level>DEBUG </level>
  20. </filter>
  21. <encoder>
  22. <!--设置为默认的文件日志格式-->
  23. <pattern>${FILE_LOG_PATTERN} </pattern>
  24. <charset>UTF-8 </charset>
  25. </encoder>
  26. <rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy">
  27. <!--设置文件命名格式-->
  28. <fileNamePattern>${LOG_FILE_PATH}/debug/${APP_NAME}-%d{yyyy-MM-dd}-%i.log </fileNamePattern>
  29. <!--设置日志文件大小,超过就重新生成文件,默认10M-->
  30. <maxFileSize>${LOG_FILE_MAX_SIZE:-10MB} </maxFileSize>
  31. <!--日志文件保留天数,默认30天-->
  32. <maxHistory>${LOG_FILE_MAX_HISTORY:-30} </maxHistory>
  33. </rollingPolicy>
  34. </appender>
  35. <!--ERROR日志输出到文件-->
  36. <appender name="FILE_ERROR"
  37. class= "ch.qos.logback.core.rolling.RollingFileAppender">
  38. <!--只输出ERROR级别的日志-->
  39. <filter class="ch.qos.logback.classic.filter.LevelFilter">
  40. <level>ERROR </level>
  41. <onMatch>ACCEPT </onMatch>
  42. <onMismatch>DENY </onMismatch>
  43. </filter>
  44. <encoder>
  45. <!--设置为默认的文件日志格式-->
  46. <pattern>${FILE_LOG_PATTERN} </pattern>
  47. <charset>UTF-8 </charset>
  48. </encoder>
  49. <rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy">
  50. <!--设置文件命名格式-->
  51. <fileNamePattern>${LOG_FILE_PATH}/error/${APP_NAME}-%d{yyyy-MM-dd}-%i.log </fileNamePattern>
  52. <!--设置日志文件大小,超过就重新生成文件,默认10M-->
  53. <maxFileSize>${LOG_FILE_MAX_SIZE:-10MB} </maxFileSize>
  54. <!--日志文件保留天数,默认30天-->
  55. <maxHistory>${LOG_FILE_MAX_HISTORY:-30} </maxHistory>
  56. </rollingPolicy>
  57. </appender>
  58. <!--DEBUG日志输出到LogStash-->
  59. <appender name="LOG_STASH_DEBUG" class="net.logstash.logback.appender.LogstashTcpSocketAppender">
  60. <filter class="ch.qos.logback.classic.filter.ThresholdFilter">
  61. <level>DEBUG </level>
  62. </filter>
  63. <destination>${LOG_STASH_HOST}:4560 </destination>
  64. <encoder charset="UTF-8" class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder">
  65. <providers>
  66. <timestamp>
  67. <timeZone>Asia/Shanghai </timeZone>
  68. </timestamp>
  69. <!--自定义日志输出格式-->
  70. <pattern>
  71. <pattern>
  72. {
  73. "project": "mall-tiny",
  74. "level": "%level",
  75. "service": "${APP_NAME:-}",
  76. "pid": "${PID:-}",
  77. "thread": "%thread",
  78. "class": "%logger",
  79. "message": "%message",
  80. "stack_trace": "%exception{20}"
  81. }
  82. </pattern>
  83. </pattern>
  84. </providers>
  85. </encoder>
  86. <!--当有多个LogStash服务时,设置访问策略为轮询-->
  87. <connectionStrategy>
  88. <roundRobin>
  89. <connectionTTL>5 minutes </connectionTTL>
  90. </roundRobin>
  91. </connectionStrategy>
  92. </appender>
  93. <!--ERROR日志输出到LogStash-->
  94. <appender name="LOG_STASH_ERROR" class="net.logstash.logback.appender.LogstashTcpSocketAppender">
  95. <filter class="ch.qos.logback.classic.filter.LevelFilter">
  96. <level>ERROR </level>
  97. <onMatch>ACCEPT </onMatch>
  98. <onMismatch>DENY </onMismatch>
  99. </filter>
  100. <destination>${LOG_STASH_HOST}:4561 </destination>
  101. <encoder charset="UTF-8" class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder">
  102. <providers>
  103. <timestamp>
  104. <timeZone>Asia/Shanghai </timeZone>
  105. </timestamp>
  106. <!--自定义日志输出格式-->
  107. <pattern>
  108. <pattern>
  109. {
  110. "project": "mall-tiny",
  111. "level": "%level",
  112. "service": "${APP_NAME:-}",
  113. "pid": "${PID:-}",
  114. "thread": "%thread",
  115. "class": "%logger",
  116. "message": "%message",
  117. "stack_trace": "%exception{20}"
  118. }
  119. </pattern>
  120. </pattern>
  121. </providers>
  122. </encoder>
  123. <!--当有多个LogStash服务时,设置访问策略为轮询-->
  124. <connectionStrategy>
  125. <roundRobin>
  126. <connectionTTL>5 minutes </connectionTTL>
  127. </roundRobin>
  128. </connectionStrategy>
  129. </appender>
  130. <!--业务日志输出到LogStash-->
  131. <appender name="LOG_STASH_BUSINESS" class="net.logstash.logback.appender.LogstashTcpSocketAppender">
  132. <destination>${LOG_STASH_HOST}:4562 </destination>
  133. <encoder charset="UTF-8" class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder">
  134. <providers>
  135. <timestamp>
  136. <timeZone>Asia/Shanghai </timeZone>
  137. </timestamp>
  138. <!--自定义日志输出格式-->
  139. <pattern>
  140. <pattern>
  141. {
  142. "project": "mall-tiny",
  143. "level": "%level",
  144. "service": "${APP_NAME:-}",
  145. "pid": "${PID:-}",
  146. "thread": "%thread",
  147. "class": "%logger",
  148. "message": "%message",
  149. "stack_trace": "%exception{20}"
  150. }
  151. </pattern>
  152. </pattern>
  153. </providers>
  154. </encoder>
  155. <!--当有多个LogStash服务时,设置访问策略为轮询-->
  156. <connectionStrategy>
  157. <roundRobin>
  158. <connectionTTL>5 minutes </connectionTTL>
  159. </roundRobin>
  160. </connectionStrategy>
  161. </appender>
  162. <!--接口访问记录日志输出到LogStash-->
  163. <appender name="LOG_STASH_RECORD" class="net.logstash.logback.appender.LogstashTcpSocketAppender">
  164. <destination>${LOG_STASH_HOST}:4563 </destination>
  165. <encoder charset="UTF-8" class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder">
  166. <providers>
  167. <timestamp>
  168. <timeZone>Asia/Shanghai </timeZone>
  169. </timestamp>
  170. <!--自定义日志输出格式-->
  171. <pattern>
  172. <pattern>
  173. {
  174. "project": "mall-tiny",
  175. "level": "%level",
  176. "service": "${APP_NAME:-}",
  177. "class": "%logger",
  178. "message": "%message"
  179. }
  180. </pattern>
  181. </pattern>
  182. </providers>
  183. </encoder>
  184. <!--当有多个LogStash服务时,设置访问策略为轮询-->
  185. <connectionStrategy>
  186. <roundRobin>
  187. <connectionTTL>5 minutes </connectionTTL>
  188. </roundRobin>
  189. </connectionStrategy>
  190. </appender>
  191. <!--控制框架输出日志-->
  192. <logger name="org.slf4j" level="INFO"/>
  193. <logger name="springfox" level="INFO"/>
  194. <logger name="io.swagger" level="INFO"/>
  195. <logger name="org.springframework" level="INFO"/>
  196. <logger name="org.hibernate.validator" level="INFO"/>
  197. <root level="DEBUG">
  198. <appender-ref ref="CONSOLE"/>
  199. <!--<appender-ref ref="FILE_DEBUG"/>-->
  200. <!--<appender-ref ref="FILE_ERROR"/>-->
  201. <appender-ref ref="LOG_STASH_DEBUG"/>
  202. <appender-ref ref="LOG_STASH_ERROR"/>
  203. </root>
  204. <logger name="com.macro.mall.tiny.component" level="DEBUG">
  205. <appender-ref ref="LOG_STASH_RECORD"/>
  206. </logger>
  207. <logger name="com.macro.mall" level="DEBUG">
  208. <appender-ref ref="LOG_STASH_BUSINESS"/>
  209. </logger>
  210. </configuration>

配置要点解析

使用默认的日志配置

一般我们不需要自定义控制台输出,可以采用默认配置,具体配置参考console-appender.xml,该文件在spring-boot-${version}.jar下面。


  
  1. <!--引用默认日志配置-->
  2. <include resource="org/springframework/boot/logging/logback/defaults.xml"/>
  3. <!--使用默认的控制台日志输出实现-->
  4. <include resource="org/springframework/boot/logging/logback/console-appender.xml"/>

springProperty

该标签可以从SpringBoot的配置文件中获取配置属性,比如说在不同环境下我们的Logstash服务地址是不一样的,我们就可以把该地址定义在application.yml来使用。

例如在application-dev.yml中定义了这些属性:


  
  1. logstash:
  2. host: localhost

在logback-spring.xml中就可以直接这样使用:


  
  1. <!--应用名称-->
  2. <springProperty scope="context" name="APP_NAME" source="spring.application.name" defaultValue="springBoot"/>
  3. <!--LogStash访问host-->
  4. <springProperty name="LOG_STASH_HOST" scope="context" source="logstash.host" defaultValue="localhost"/>

filter

在Logback中有两种不同的过滤器,用来过滤日志输出。

ThresholdFilter:临界值过滤器,过滤掉低于指定临界值的日志,比如下面的配置将过滤掉所有低于INFO级别的日志。


  
  1. <filter class= "ch.qos.logback.classic.filter.ThresholdFilter">
  2. <level>INFO</level>
  3. < /filter>

LevelFilter:级别过滤器,根据日志级别进行过滤,比如下面的配置将过滤掉所有非ERROR级别的日志。


  
  1. <filter class="ch.qos.logback.classic.filter.LevelFilter">
  2. <level>ERROR </level>
  3. <onMatch>ACCEPT </onMatch>
  4. <onMismatch>DENY </onMismatch>
  5. </filter>

appender

Appender可以用来控制日志的输出形式,主要有下面三种。

  • ConsoleAppender:控制日志输出到控制台的形式,比如在console-appender.xml中定义的默认控制台输出。

  
  1. <appender name= "CONSOLE" class= "ch.qos.logback.core.ConsoleAppender">
  2. <encoder>
  3. <pattern>${CONSOLE_LOG_PATTERN} </pattern>
  4. </encoder>
  5. < /appender>
  • RollingFileAppender:控制日志输出到文件的形式,可以控制日志文件生成策略,比如文件名称格式、超过多大重新生成文件以及删除超过多少天的文件。

  
  1. <!--ERROR日志输出到文件-->
  2. <appender name="FILE_ERROR"
  3. class= "ch.qos.logback.core.rolling.RollingFileAppender">
  4. <rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy">
  5. <!--设置文件命名格式-->
  6. <fileNamePattern>${LOG_FILE_PATH}/error/${APP_NAME}-%d{yyyy-MM-dd}-%i.log </fileNamePattern>
  7. <!--设置日志文件大小,超过就重新生成文件,默认10M-->
  8. <maxFileSize>${LOG_FILE_MAX_SIZE:-10MB} </maxFileSize>
  9. <!--日志文件保留天数,默认30天-->
  10. <maxHistory>${LOG_FILE_MAX_HISTORY:-30} </maxHistory>
  11. </rollingPolicy>
  12. </appender>
  • LogstashTcpSocketAppender:控制日志输出到Logstash的形式,可以用来配置Logstash的地址、访问策略以及日志的格式。

  
  1. <!--ERROR日志输出到LogStash-->
  2. <appender name="LOG_STASH_ERROR" class="net.logstash.logback.appender.LogstashTcpSocketAppender">
  3. <destination>${LOG_STASH_HOST}:4561 </destination>
  4. <encoder charset="UTF-8" class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder">
  5. <providers>
  6. <timestamp>
  7. <timeZone>Asia/Shanghai </timeZone>
  8. </timestamp>
  9. <!--自定义日志输出格式-->
  10. <pattern>
  11. <pattern>
  12. {
  13. "project": "mall-tiny",
  14. "level": "%level",
  15. "service": "${APP_NAME:-}",
  16. "pid": "${PID:-}",
  17. "thread": "%thread",
  18. "class": "%logger",
  19. "message": "%message",
  20. "stack_trace": "%exception{20}"
  21. }
  22. </pattern>
  23. </pattern>
  24. </providers>
  25. </encoder>
  26. <!--当有多个LogStash服务时,设置访问策略为轮询-->
  27. <connectionStrategy>
  28. <roundRobin>
  29. <connectionTTL>5 minutes </connectionTTL>
  30. </roundRobin>
  31. </connectionStrategy>
  32. </appender>

logger

只有配置到logger节点上的appender才会被使用,logger用于配置哪种条件下的日志被打印,root是一种特殊的appender,下面介绍下日志划分的条件。

  • 调试日志:所有的DEBUG级别以上日志;
  • 错误日志:所有的ERROR级别日志;
  • 业务日志:com.macro.mall包下的所有DEBUG级别以上日志;
  • 记录日志:com.macro.mall.tiny.component.WebLogAspect类下所有DEBUG级别以上日志,该类是统计接口访问信息的AOP切面类。

控制框架输出日志

还有一些使用框架内部的日志,DEBUG级别的日志对我们并没有啥用处,都可以设置为了INFO以上级别。


  
  1. <!--控制框架输出日志-->
  2. <logger name="org.slf4j" level="INFO"/>
  3. <logger name="springfox" level="INFO"/>
  4. <logger name="io.swagger" level="INFO"/>
  5. <logger name="org.springframework" level="INFO"/>
  6. <logger name="org.hibernate.validator" level="INFO"/>

Logstash配置详解

接下来我们需要配置下Logstash,让它可以分场景收集不同的日志,下面详细介绍下使用到的配置。

完全配置


  
  1. input {
  2. tcp {
  3. mode => "server"
  4. host => "0.0.0.0"
  5. port => 4560
  6. codec => json_lines
  7. type => "debug"
  8. }
  9. tcp {
  10. mode => "server"
  11. host => "0.0.0.0"
  12. port => 4561
  13. codec => json_lines
  14. type => "error"
  15. }
  16. tcp {
  17. mode => "server"
  18. host => "0.0.0.0"
  19. port => 4562
  20. codec => json_lines
  21. type => "business"
  22. }
  23. tcp {
  24. mode => "server"
  25. host => "0.0.0.0"
  26. port => 4563
  27. codec => json_lines
  28. type => "record"
  29. }
  30. }
  31. filter{
  32. if [type] == "record" {
  33. mutate {
  34. remove_field => "port"
  35. remove_field => "host"
  36. remove_field => "@version"
  37. }
  38. json {
  39. source => "message"
  40. remove_field => [ "message"]
  41. }
  42. }
  43. }
  44. output {
  45. elasticsearch {
  46. hosts => [ "es:9200"]
  47. action => "index"
  48. codec => json
  49. index => "mall-tiny-%{type}-%{+YYYY.MM.dd}"
  50. template_name => "mall-tiny"
  51. }
  52. }

配置要点

  • input:使用不同端口收集不同类型的日志,从4560~4563开启四个端口;
  • filter:对于记录类型的日志,直接将JSON格式的message转化到source中去,便于搜索查看;
  • output:按类型、时间自定义索引格式。

SpringBoot配置

在SpringBoot中的配置可以直接用来覆盖Logback中的配置,比如logging.level.root就可以覆盖<root>节点中的level配置。

  • 开发环境配置:application-dev.yml
 
  • 测试环境配置:application-test.yml

  
  1. logstash:
  2. host: 192 .168 .3 .101
  3. logging:
  4. level:
  5. root: debug
  • 生产环境配置:application-prod.yml

  
  1. logstash:
  2. host: logstash-prod
  3. logging:
  4. level:
  5. root: info

Kibana进阶使用

经过上面ELK环境的搭建和配置以后,我们的日志收集系统终于可以用起来了,下面介绍下在Kibana中的使用技巧!

  • 首先启动我们的测试Demo,然后通用调用接口(可以使用Swagger),产生一些日志信息;

 

  • 调用完成后在Management->Kibana->Index Patterns中可以创建Index Patterns,Kibana服务访问地址:http://192.168.3.101:5601

 

  • 创建完成后可以在Discover中查看所有日志,调试日志只需直接查看mall-tiny-debug*模式的日志即可;

 

  • 对于日志搜索,kibana有非常强大的提示功能,可以通过搜索栏右侧的Options按钮打开;

 

  • 记录日志只需直接查看mall-tiny-record*模式的日志即可,如果我们想要搜索uri为/brand/listAll的记录日志,只需在搜索栏中输入uri : "/brand/listAll";

 

  • 错误日志,只需直接查看mall-tiny-error*模式的日志即可;

 

  • 业务日志,只需直接查看mall-tiny-business*模式的日志即可,这里我们可以查看一些SQL日志的输出;

 

  • 如果日志太大了,可以通过Elasticsearch->Index Management选择删除即可。

 

项目源码地址

转发+关注,然后私信回复 “开源项目” 即可获得项目源码地址的免费领取方式。


转载:https://blog.csdn.net/yelvgou9995/article/details/106836104
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场