7.1 链路追踪简介
7.1.1 为什么需要链路追踪
微服务架构是⼀个分布式架构,它按业务划分服务单元,⼀个分布式系统往往有很多个服务单元。 由于服务单元数量众多,业务的复杂性,如果出现了错误和异常,很难去定位。主要体现在,⼀个请求可能需要调⽤很多个服务,⽽内部服务的调⽤复杂性,决定了问题难以定位。所以微服务架构中,必须实现分布式链路追踪,去跟进⼀个请求到底有哪些服务参与,参与的顺序⼜是怎样的,从⽽达到每个请求的步骤清晰可⻅,出了问题,很快定位。
举个例⼦,在微服务系统中,⼀个来⾃⽤户的请求,请求先达到前端A(如前端界⾯),然后通过远程调⽤,到达系统的中间件B、C(如负载均衡、⽹关等),最后达到后端服务D、E,后端经过⼀系列的业务逻辑计算最后将数据返回给⽤户。对于这样⼀个请求,经历了这么多个服务,怎么样将它的请求过程的数据记录下来呢?这就需要⽤到服务链路追踪。
Google开源的 Dapper链路追踪组件,并在2010年发表了论⽂《Dapper, a Large-Scale Distributed Systems Tracing Infrastructure》,这篇⽂章是业内实现链路追踪的标杆和理论基础,具有⾮常⼤的参考价值。
⽬前,链路追踪组件有Google的Dapper,Twitter 的Zipkin,以及阿⾥的Eagleeye (鹰眼)等,它们都是⾮常优秀的链路追踪开源组件。
7.1.2 基本术语
Spring Cloud Sleuth采⽤的是Google的开源项⽬Dapper的专业术语。
-
Span:基本⼯作单元,发送⼀个远程调度任务 就会产⽣⼀个Span,Span有⼀个64位ID唯⼀标识的,Trace是⽤另⼀个64位ID唯⼀标识的,Span还有其他数据信息,⽐如摘要、时间戳事件、Span 的ID、以及进度ID。
-
Trace:⼀系列Span组成的⼀个树状结构。请求⼀个微服务系统的API接⼝,这个API接⼝,需要调⽤多个微服务,调⽤每个微服务都会产⽣⼀个新的Span,所有由这个请求产⽣的Span组成了这个Trace。
-
Annotation:⽤来及时记录⼀个事件的,⼀些核⼼注解⽤来定义⼀个请求的开始和结束 。这些注解包括以下:
-
cs – Client Sent -客户端发送⼀个请求,这个注解描述了这个Span的开始
-
sr – Server Received -服务端获得请求并准备开始处理它,如果将其sr减去cs时间戳便可得到⽹络传输的时间。
-
ss – Server Sent (服务端发送响应)–该注解表明请求处理的完成(当请求返回客户端),如果ss的时间戳减去sr时间戳,就可以得到服务器请求的时间。
-
cr – Client Received (客户端接收响应)-此时Span的结束,如果cr的时间戳减去cs时间戳便可以得到整个请求所消耗的时间。
-
7.2 案例实战
本⽂主要讲述如何在Spring Cloud Sleuth中集成Zipkin。在Spring Cloud Sleuth中集成Zipkin⾮常的简单,只需要引⼊相应的依赖和做相关的配置即可。
7.2.1 Zipkin-Server
准备Zipkin-Server,步骤如下。
1. 下载Zipkin-Server
2. 启动Zipkin-Server
java -jar zipkin-server-2.23.2-exec.jar
7.2.2 Zipkin-Client
改造⽀付微服务项⽬,和订单微服务项⽬作为Zipkin客户端,需要将链路数据上传给Zipkin Server,具体步骤如下。
1. 添加依赖
在⽀付为服务和订单微服务项⽬的pom.xml中添加依赖如下。
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-sleuth-zipkin</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-sleuth</artifactId>
</dependency>
2. 配置⽂件
在⽀付和订单项⽬的配置⽂件application.yml配置Spring Cloud Sleuth链路追踪,代码如下
spring:
application:
name: cloud-payment-service
zipkin:
base-url: http://192.168.220.12:9411
sender:
type: web
sleuth:
sampler:
probability: 1
-
spring.zipkin.base-url:指定Zipkin的服务端,⽤于发送链路报告
-
spirng.zipkin.sender.type:web表示使⽤http发送数据
-
spring.sleuth.sampler.probability:采样率,值为[0,1]之间,这⾥表示100%采样报告
7.2.3 启动并测试
分别启动Zipkin-Server,Eureka,⽀付服务,订单服务,然后请求⼏次订单业务,这时链路报告会通过web⽅式发送给ZipkinServer,ZipkinServer收集的链路数据。
7.2.4 使⽤RabbitMQ传输链路数据
在上述案例中最终收集的数据是通过HTTP上传给Zipkin-Server的,在Spring Cloud Sleuth中⽀持消息组件传输链路数据,本节使⽤RabbitMQ传输链路数据,步骤如下。
1. 安装RabbitMQ
使⽤Docker安装RabbitMQ命令如下。
docker pull rabbitmq:management
docker run -d -p 5672:5672 -p 15672:15672 --name rabbitmq rabbitmq:management
2. Zipkin-Server
启动Zipkin-Server时,指定从RabbitMQ获得链路消息数据。命令如下。
RABBIT_ADDRESSES=localhost java -jar zipkin-server-2.23.2-exec.jar
#或者下⾯命令
java -jar zipkin-server-2.23.2-exec.jar --
zipkin.collector.rabbitmq.addresses=localhost
注意这⾥使⽤localhost,故此需要把 zipkin-server-2.23.2-exec.jar 上传到docker所在的虚拟机。
3. Zipkin-Client
在Zipkin-Client中添加依赖
<dependency>
<groupId>org.springframework.amqp</groupId>
<artifactId>spring-rabbit</artifactId>
</dependency>
在⽀付微服务,和订单微服务中修改配置,将链路数据发送给RabbitMQ。配置如下。
spring:
application:
name: cloud-payment-service
zipkin:
addresses: 192.168.220.12:5672
# base-url: http://127.0.0.1:9411
sender:
type: web
sleuth:
sampler:
probability: 1
因为发送链路数据的⽅式type=rabbit,故此需要配置spring.zipkin.rabbitmq,同时base-url就不需要了。
4. 启动并测试
重启Zipkin-Server和Zipkin-Client,发现链路数据经由RabbitMQ发送给Zipkin-Server。
7.2.5 使⽤ElasticSearch存储链路数据
在上⾯案例中,Zipkin Server将链路数据存储在内存中,⼀旦程序重启,之前的链路数据全部丢失。那么怎么将链路数据存储起来呢?Zipkin⽀持将链路数据存储在MySql、Elasticsearch,和Cassandra数据库中,本节讲解使⽤Elasticsearch存储。步骤如下。
1. 安装Elasticsearch和Kibana
使⽤docker安装Elasticsearch和Kibana。命令如下。
docker pull elasticsearch:7.13.4
# 创建⾃定义的⽹络(⽤于连接到连接到同⼀⽹络的其他服务(例如Kibana))
docker network create somenetwork
#运⾏Elasticsearch
docker run -d --name elasticsearch --net somenetwork -p 9200:9200 -p
9300:9300 -e "discovery.type=single-node" elasticsearch:7.13.4
docker pull kibana:7.3.4
# 运⾏ Kibana
docker run -d --name kibana --net somenetwork -p 5601:5601 kibana:7.13.4
2. Zipkin-Server
启动Zipkin Server时,指定使⽤ES存储数据,命令如下
ABBIT_ADDRESSES=localhost STORAGE_TYPE=elasticsearch
ES_HOSTS=http://localhost:9200 java -jar zipkin-server-2.23.2-exec.jar
#或者
java -jar zipkin-server-2.23.2-exec.jar --
zipkin.collector.rabbitmq.addresses=localhost --STORAGE_TYPE=elasticsearch --ES_HOSTS=http://localhost:9200
3. 启动并测试
重启Zipkin-Server,可以看到链路追踪数据,已经存⼊Elasticsearch中,同时再次重启Zipkin-Server,数据依然存在。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/13435.html