第七章 Spring Cloud Sleuth链路追踪

导读:本篇文章讲解 第七章 Spring Cloud Sleuth链路追踪,希望对大家有帮助,欢迎收藏,转发!站点地址:www.bmabk.com

7.1 链路追踪简介

7.1.1 为什么需要链路追踪

        微服务架构是⼀个分布式架构,它按业务划分服务单元,⼀个分布式系统往往有很多个服务单元。 由于服务单元数量众多,业务的复杂性,如果出现了错误和异常,很难去定位。主要体现在,⼀个请求可能需要调⽤很多个服务,⽽内部服务的调⽤复杂性,决定了问题难以定位。所以微服务架构中,必须实现分布式链路追踪,去跟进⼀个请求到底有哪些服务参与,参与的顺序⼜是怎样的,从⽽达到每个请求的步骤清晰可⻅,出了问题,很快定位。

        举个例⼦,在微服务系统中,⼀个来⾃⽤户的请求,请求先达到前端A(如前端界⾯),然后通过远程调⽤,到达系统的中间件B、C(如负载均衡、⽹关等),最后达到后端服务D、E,后端经过⼀系列的业务逻辑计算最后将数据返回给⽤户。对于这样⼀个请求,经历了这么多个服务,怎么样将它的请求过程的数据记录下来呢?这就需要⽤到服务链路追踪。

        Google开源的 Dapper链路追踪组件,并在2010年发表了论⽂《Dapper, a Large-Scale Distributed Systems Tracing Infrastructure》,这篇⽂章是业内实现链路追踪的标杆和理论基础,具有⾮常⼤的参考价值。

        ⽬前,链路追踪组件有Google的Dapper,Twitter 的Zipkin,以及阿⾥的Eagleeye (鹰眼)等,它们都是⾮常优秀的链路追踪开源组件。

7.1.2 基本术语

Spring Cloud Sleuth采⽤的是Google的开源项⽬Dapper的专业术语。

  • Span:基本⼯作单元,发送⼀个远程调度任务 就会产⽣⼀个Span,Span有⼀个64位ID唯⼀标识的,Trace是⽤另⼀个64位ID唯⼀标识的,Span还有其他数据信息,⽐如摘要、时间戳事件、Span 的ID、以及进度ID。

  • Trace:⼀系列Span组成的⼀个树状结构。请求⼀个微服务系统的API接⼝,这个API接⼝,需要调⽤多个微服务,调⽤每个微服务都会产⽣⼀个新的Span,所有由这个请求产⽣的Span组成了这个Trace。

  • Annotation:⽤来及时记录⼀个事件的,⼀些核⼼注解⽤来定义⼀个请求的开始和结束 。这些注解包括以下:

    • cs – Client Sent -客户端发送⼀个请求,这个注解描述了这个Span的开始

    • sr – Server Received -服务端获得请求并准备开始处理它,如果将其sr减去cs时间戳便可得到⽹络传输的时间。

    • ss – Server Sent (服务端发送响应)–该注解表明请求处理的完成(当请求返回客户端),如果ss的时间戳减去sr时间戳,就可以得到服务器请求的时间。

    • cr – Client Received (客户端接收响应)-此时Span的结束,如果cr的时间戳减去cs时间戳便可以得到整个请求所消耗的时间。

第七章 Spring Cloud Sleuth链路追踪

 

7.2 案例实战

        本⽂主要讲述如何在Spring Cloud Sleuth中集成Zipkin。在Spring Cloud Sleuth中集成Zipkin⾮常的简单,只需要引⼊相应的依赖和做相关的配置即可。

7.2.1 Zipkin-Server

准备Zipkin-Server,步骤如下。

1. 下载Zipkin-Server

下载地址:https://archiva-maven-storage-prod.oss-cn-beijing.aliyuncs.com/repository/central/io/zipkin/zipkin-server/2.23.2/zipkin-server-2.23.2-exec.jar

2. 启动Zipkin-Server

java -jar zipkin-server-2.23.2-exec.jar

7.2.2 Zipkin-Client

        改造⽀付微服务项⽬,和订单微服务项⽬作为Zipkin客户端,需要将链路数据上传给Zipkin Server,具体步骤如下。

1. 添加依赖

在⽀付为服务和订单微服务项⽬的pom.xml中添加依赖如下。

<dependency> 
<groupId>org.springframework.cloud</groupId> 
<artifactId>spring-cloud-sleuth-zipkin</artifactId> 
</dependency> 
​
<dependency> 
<groupId>org.springframework.cloud</groupId> 
<artifactId>spring-cloud-starter-sleuth</artifactId> 
</dependency> 

2. 配置⽂件

在⽀付和订单项⽬的配置⽂件application.yml配置Spring Cloud Sleuth链路追踪,代码如下

spring: 
  application: 
    name: cloud-payment-service 
  zipkin: 
    base-url: http://192.168.220.12:9411 
    sender: 
      type: web 
  sleuth: 
    sampler: 
      probability: 1
  • spring.zipkin.base-url:指定Zipkin的服务端,⽤于发送链路报告

  • spirng.zipkin.sender.type:web表示使⽤http发送数据

  • spring.sleuth.sampler.probability:采样率,值为[0,1]之间,这⾥表示100%采样报告

7.2.3 启动并测试

        分别启动Zipkin-Server,Eureka,⽀付服务,订单服务,然后请求⼏次订单业务,这时链路报告会通过web⽅式发送给ZipkinServer,ZipkinServer收集的链路数据。

7.2.4 使⽤RabbitMQ传输链路数据

        在上述案例中最终收集的数据是通过HTTP上传给Zipkin-Server的,在Spring Cloud Sleuth中⽀持消息组件传输链路数据,本节使⽤RabbitMQ传输链路数据,步骤如下。

1. 安装RabbitMQ

使⽤Docker安装RabbitMQ命令如下。

docker pull rabbitmq:management 
docker run -d -p 5672:5672 -p 15672:15672 --name rabbitmq rabbitmq:management 

2. Zipkin-Server

启动Zipkin-Server时,指定从RabbitMQ获得链路消息数据。命令如下。

RABBIT_ADDRESSES=localhost java -jar zipkin-server-2.23.2-exec.jar 
​
#或者下⾯命令 
java -jar zipkin-server-2.23.2-exec.jar -- 
zipkin.collector.rabbitmq.addresses=localhost 

注意这⾥使⽤localhost,故此需要把 zipkin-server-2.23.2-exec.jar 上传到docker所在的虚拟机。

3. Zipkin-Client

在Zipkin-Client中添加依赖

<dependency> 
<groupId>org.springframework.amqp</groupId> 
<artifactId>spring-rabbit</artifactId> 
</dependency> 

在⽀付微服务,和订单微服务中修改配置,将链路数据发送给RabbitMQ。配置如下。

spring:
  application:
    name: cloud-payment-service
  zipkin:
    addresses: 192.168.220.12:5672
#    base-url: http://127.0.0.1:9411
    sender:
      type: web
  sleuth:
    sampler:
      probability: 1

        因为发送链路数据的⽅式type=rabbit,故此需要配置spring.zipkin.rabbitmq,同时base-url就不需要了。

4. 启动并测试

重启Zipkin-Server和Zipkin-Client,发现链路数据经由RabbitMQ发送给Zipkin-Server。

7.2.5 使⽤ElasticSearch存储链路数据

        在上⾯案例中,Zipkin Server将链路数据存储在内存中,⼀旦程序重启,之前的链路数据全部丢失。那么怎么将链路数据存储起来呢?Zipkin⽀持将链路数据存储在MySql、Elasticsearch,和Cassandra数据库中,本节讲解使⽤Elasticsearch存储。步骤如下。

1. 安装Elasticsearch和Kibana

        使⽤docker安装Elasticsearch和Kibana。命令如下。

docker pull elasticsearch:7.13.4 
​
# 创建⾃定义的⽹络(⽤于连接到连接到同⼀⽹络的其他服务(例如Kibana)) 
docker network create somenetwork 
​
#运⾏Elasticsearch 
docker run -d --name elasticsearch --net somenetwork -p 9200:9200 -p 
9300:9300 -e "discovery.type=single-node" elasticsearch:7.13.4 
docker pull kibana:7.3.4 
​
# 运⾏ Kibana 
docker run -d --name kibana --net somenetwork -p 5601:5601 kibana:7.13.4 

2. Zipkin-Server

        启动Zipkin Server时,指定使⽤ES存储数据,命令如下

ABBIT_ADDRESSES=localhost STORAGE_TYPE=elasticsearch 
ES_HOSTS=http://localhost:9200 java -jar zipkin-server-2.23.2-exec.jar 
​
#或者 
java -jar zipkin-server-2.23.2-exec.jar -- 
zipkin.collector.rabbitmq.addresses=localhost --STORAGE_TYPE=elasticsearch --ES_HOSTS=http://localhost:9200 

3. 启动并测试

        重启Zipkin-Server,可以看到链路追踪数据,已经存⼊Elasticsearch中,同时再次重启Zipkin-Server,数据依然存在。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/13435.html

(0)
小半的头像小半

相关推荐

极客之音——专业性很强的中文编程技术网站,欢迎收藏到浏览器,订阅我们!