Spring Cloud Alibaba学习笔记(23) - 调用链监控工具Spring Cloud Sleuth + Zipkin
随着业务发展,系统拆分导致系统调用链路愈发复杂一个前端请求可能最终需要调用很多次后端服务才能完成,当整个请求陷入性能瓶颈或不可用时,我们是无法得知该请求是由某个或某些后端服务引起的,这时就需要解决如何快读定位服务故障点,以对症下药。于是就有了分布式系统调用跟踪的诞生。
Spring Cloud Sleuth 也为我们提供了一套完整的解决方案。在本文中,我们将详细介绍如何使用 Spring Cloud Sleuth + Zipkin 来为我们的微服务架构增加分布式服务跟踪的能力。
Spring Cloud Sleuth
Spring Cloud Sleuth implements a distributed tracing solution for Spring Cloud, borrowing heavily from Dapper, Zipkin and HTrace. For most users Sleuth should be invisible, and all your interactions with external systems should be instrumented automatically. You can capture data simply in logs, or by sending it to a remote collector service.
Spring Cloud Sleuth是Spring Cloud实施分布式跟踪解决方案,大量借用Dapper,Zipkin和HTrace。 对于大多数用户来说,侦探应该是隐形的,并且所有与外部系统的交互都应该自动进行检测。 您可以简单地在日志中捕获数据,也可以将数据发送到远程收集器服务。
SpringCloudSleuth 借用了 Dapper 的术语:
- Span(跨度):Sleuth的基本工作单元,它用一个64位的id唯一标识。除Id外,span还包含其他数据,例如描述、时间戳事件、键值对的注解(标签)、span ID、span父ID等
- trace(跟踪):一组span组成的树状结构称之为trace
- Annotation(标注):用于及时记录事件的存在
- CS(Client Sent客户端发送):客户端发送一个请求,该annotation描述了span的开始
- SR(Server Received服务器端接收):服务器端获取请求并准备处理它
- SS(Server Sent服务器端发送):该annotation表明完成请求处理(当响应发回客户端时)
- CR(Client Received客户端接收):span结束的标识,客户端成功接收到服务器端的响应
Spring Cloud Sleuth 为服务之间调用提供链路追踪。通过 Sleuth 可以很清楚的了解到一个服务请求经过了哪些服务,每个服务处理花费了多长。从而让我们可以很方便的理清各微服务间的调用关系。此外 Sleuth 可以帮助我们:
- 耗时分析:通过 Sleuth 可以很方便的了解到每个采样请求的耗时,从而分析出哪些服务调用比较耗时;
- 可视化错误:对于程序未捕捉的异常,可以通过集成 Zipkin 服务界面上看到;
- 链路优化:对于调用比较频繁的服务,可以针对这些服务实施一些优化措施。
Spring Cloud Sleuth 可以结合 Zipkin,将信息发送到 Zipkin,利用 Zipkin 的存储来存储信息,利用 Zipkin UI 来展示数据。
这是 Spring Cloud Sleuth 的概念图:

应用整合Sleuth
只需要在pom.xml的dependencies中添加如下依赖,就可以为应用整合sleuth:
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-sleuth</artifactId>
</dependency>
整合完成之后,启动项目,调用一个请求(我人为的关闭了应用要调用的另一个微服务,导致了请求失败),这是看控制台日志:
2019-10-29 16:28:57.417 INFO [study01,,,] 5830 --- [-192.168.31.101] o.s.web.servlet.DispatcherServlet : Completed initialization in 27 ms
2019-10-29 16:28:57.430 INFO [study01,,,] 5830 --- [-192.168.31.101] com.zaxxer.hikari.HikariDataSource : HikariPool-1 - Starting...
2019-10-29 16:28:57.433 INFO [study01,,,] 5830 --- [-192.168.31.101] com.zaxxer.hikari.HikariDataSource : HikariPool-1 - Start completed.
2019-10-29 16:28:58.520 DEBUG [study01,42d9bd786504f775,42d9bd786504f775,false] 5530 --- [nio-8881-exec-1] c.e.s.feignClient.CommentFeignClient : [CommentFeignClient#find] ---> GET http://study02/find HTTP/1.1
2019-10-29 16:28:58.520 DEBUG [study01,42d9bd786504f775,42d9bd786504f775,false] 5530 --- [nio-8881-exec-1] c.e.s.feignClient.CommentFeignClient : [CommentFeignClient#find] ---> END HTTP (0-byte body)
2019-10-29 16:28:58.520 DEBUG [study01,42d9bd786504f775,42d9bd786504f775,false] 5530 --- [nio-8881-exec-1] c.s.i.w.c.f.TraceLoadBalancerFeignClient : Before send
2019-10-29 16:28:58.646 INFO [study01,42d9bd786504f775,42d9bd786504f775,false] 5530 --- [nio-8881-exec-1] c.netflix.config.ChainedDynamicProperty : Flipping property: study02.ribbon.ActiveConnectionsLimit to use NEXT property: niws.loadbalancer.availabilityFilteringRule.activeConnectionsLimit = 2147483647
2019-10-29 16:28:58.661 INFO [study01,42d9bd786504f775,42d9bd786504f775,false] 5530 --- [nio-8881-exec-1] c.netflix.loadbalancer.BaseLoadBalancer : Client: study02 instantiated a LoadBalancer: DynamicServerListLoadBalancer:{NFLoadBalancer:name=study02,current list of Servers=[],Load balancer stats=Zone stats: {},Server stats: []}ServerList:null
2019-10-29 16:28:58.667 INFO [study01,42d9bd786504f775,42d9bd786504f775,false] 5530 --- [nio-8881-exec-1] c.n.l.DynamicServerListLoadBalancer : Using serverListUpdater PollingServerListUpdater
2019-10-29 16:28:58.683 INFO [study01,42d9bd786504f775,42d9bd786504f775,false] 5530 --- [nio-8881-exec-1] c.n.l.DynamicServerListLoadBalancer : DynamicServerListLoadBalancer for client study02 initialized: DynamicServerListLoadBalancer:{NFLoadBalancer:name=study02,current list of Servers=[],Load balancer stats=Zone stats: {},Server stats: []}ServerList:com.alibaba.cloud.nacos.ribbon.NacosServerList@591b62cf
2019-10-29 16:28:58.707 DEBUG [study01,42d9bd786504f775,42d9bd786504f775,false] 5530 --- [nio-8881-exec-1] o.s.c.s.i.a.ContextRefreshedListener : Context successfully refreshed
2019-10-29 16:28:58.755 DEBUG [study01,42d9bd786504f775,42d9bd786504f775,false] 5530 --- [nio-8881-exec-1] c.s.i.w.c.f.TraceLoadBalancerFeignClient : Exception thrown
可以看见日志的形式和之前不太一样了,首先启动日志里面多了个中括号:[study01,,,];而当应用请求报异常的时候,中括号中有了这些数据:[study01,42d9bd786504f775,42d9bd786504f775,false]
study01是应用名称,42d9bd786504f775是 trace ID,42d9bd786504f775是span ID,false表示是不是要把这条数据上传给zipkin。这时,就可以通过日志分析应用哪里出了问题、哪个阶段出了问题。
PS:可以在应用中添加如下配置:
logging:
level:
org.springframework.cloud.sleuth: debug
这段配置的用处是让sleuth打印更多的日志,从而进一步帮助我们分析错误【我上面粘出的日志就是添加配置之后的结果】。
Zipkin
Zipkin 是 Twitter 的开源分布式跟踪系统,它基于 Google Dapper 实现,它致力于收集服务的时序数据,以解决微服务架构中的延迟问题,包括数据的收集、存储、查找和展现。
搭建Zipkin Server
下载Zipkin Server
使用Zipkin官方的Shell
curl -sSL https://zipkin.io/quickstart.sh | bash -s
Maven中央仓库
访问如下地址下载:
https://search.maven.org/remote_content?g=io.zipkin.java&a=zipkin-server&v=LATEST&c=exec
启动Zipkin Server
下载完成之后,在下载的jar所在目录,执行java -jar *****.jar命令即可启动Zipkin Server
访问http://localhost:9411 即可看到Zipkin Server的首页。

应用整合Zipkin
添加依赖:
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-zipkin</artifactId>
</dependency>
PS:当使用了spring-cloud-starter-zipkin之后,前面添加spring-cloud-starter-sleuth就不需要了,因为前者包含了后者。
添加配置
spring:
zipkin:
base-url: http://localhost:9411/
sleuth:
sampler:
# 抽样率,默认是0.1(90%的数据会被丢弃)
# 这边为了测试方便,将其设置为1.0,即所有的数据都会上报给zipkin
probability: 1.0
启动项目,产生请求之后,打开zipkin控制台,可以刚刚请求的信息(按耗时降序排列):

点击可以查看请求的详情:

这张图中,Server Start表示的是Server Received;Server Finish表示的是Server Sent。
因为客户端发生在浏览器上,而浏览器并没有整合zipkin,所以zipkin中没有Client Sent和Client Received数据。
Zipkin数据持久化
前面搭建Zipkin是基于内存的,如果Zipkin发生重启的话,数据就会丢失,这种方式是不适用于生产的,所以我们需要实现数据持久化。
Zipkin给出三种数据持久化方法:
- MySQL:存在性能问题,不建议使用
- Elasticsearch
- Cassandra
相关的官方文档:https://github.com/openzipkin/zipkin#storage-component , 本文将介绍Elasticsearch实现Zipkin数据持久化
搭建Elasticsearch
我们需要下载什么版本的Elasticsearch呢,官方文档给出了建议,5-7版本都可以使用(本文使用的是Elasticsearch6.8.2,因为Elasticsearch7开始后需要jdk11支持):
The Elasticsearch component uses Elasticsearch 5+ features, but is tested against Elasticsearch 6-7.x.
下载完成后,解压缩软件包,进入bin目录,执行 ./elasticsearch即可启动Elasticsearch:

访问http://localhost:9200/,出现如下页面,说明Elasticsearch启动成功:

让zipkin使用Elasticsearch存储数据
zipkin提供了很多的环境变量,配置环境变量就可以将数据存储进Elasticsearch。
- STORAGE_TYPE: 指定存储类型,可选项为:mysql, cassandra, elasticsearch
- ES_HOSTS:Elasticsearch地址,多个使用,分隔,默认http://localhost:9200
- ES_PIPELINE:指定span被索引之前的pipeline(Elasticsearch的概念)
- ES_TIMEOUT:连接Elasticsearch的超时时间,单位是毫秒;默认10000(10秒)
- ES_INDEX:zipkin所使用的索引前缀(zipkin会每天建立索引),默认zipkin
- ES_DATE_SEPARATOR:zipkin建立索引的日期分隔符,默认是-
- ES_INDEX_SHARDS:shard(Elasticsearch的概念)个数,默认5
- ES_INDEX_REPLICAS:副本(Elasticsearch的概念)个数,默认1
- ES_USERNAME/ES_PASSWORD:Elasticsearch账号密码
- ES_HTTP_LOGGING:控制Elasticsearch Api的日志级别,可选项为BASIC、HEADERS、BODY
更多环境变量参照:https://github.com/openzipkin/zipkin/tree/master/zipkin-server#environment-variables
执行下面代码重新启动zipkin:
STORAGE_TYPE=elasticsearch ES_HOSTS=localhost:9200 java -jar zipkin-server-2.12.9-exec.jar
产生请求之后,访问http://localhost:9411/zipkin/,可以看见刚刚请求的数据:

停调zipkin,然后再次启动,访问http://localhost:9411/zipkin/,可以看见数据依然存在:

说明此时,数据已经实现了持久化。
从官方文档可以看出,使用Elasticsearch进行zipkin数据持久化之后,Zipkin的依赖关系分析功能无法使用了。
Note: This store requires a spark job to aggregate dependency links.
我们需要整合zipkin-dependencies来实现依赖关系图功能。zipkin-dependencies是zipkin的一个子项目,启动非常的简单。
下载:
curl -sSL https://zipkin.io/quickstart.sh | bash -s io.zipkin.dependencies:zipkin-dependencies:LATEST zipkin-dependencies.jar
启动:
STORAGE_TYPE=elasticsearch ES_HOSTS=localhost:9200 java -jar zipkin-dependencies.jar
zipkin-dependencies使用Elasticsearch的环境变量
- STORAGE_TYPE: 指定存储类型,可选项为:mysql, cassandra, elasticsearch
- ES_HOSTS:Elasticsearch地址,多个使用,分隔,默认http://localhost:9200
- ES_INDEX:zipkin所使用的索引前缀(zipkin会每天建立索引),默认zipkin
- ES_DATE_SEPARATOR:zipkin建立索引的日期分隔符,默认是-
- ES_NODES_WAN_ONLY:如果设为true,则表示仅使用ES_HOSTS所设置的值,默认为false。当Elasticsearch集群运行在Docker中时,可将该环境变量设为true。
这边只需要把项目启动,就可以展示依赖关系图了,这里就不再演示了。
注意:zipkin-dependencies启动之后会自动停止,所以建议使用定时任务让操作系统定时启动zipkin-dependencies。
扩展:Zipkin Dependencies指定分析日期:
分析昨天的数据(OS/X下的命令)
STORAGE_TYPE=elasticsearch java -jar zipkin-dependencies.jar 'date -uv-ld + %F'
分析昨天的数据(Linux下的命令)
STORAGE_TYPE=elasticsearch java -jar zipkin-dependencies.jar 'date -u -d '1 day ago' + %F'
分析指定日期的数据
STORAGE_TYPE=elasticsearch java -jar zipkin-dependencies.jar 2019-10-29
Spring Cloud Alibaba学习笔记(23) - 调用链监控工具Spring Cloud Sleuth + Zipkin的更多相关文章
- Spring Cloud Alibaba学习笔记(1) - 整合Spring Cloud Alibaba
Spring Cloud Alibaba从孵化器版本毕业:https://github.com/alibaba/spring-cloud-alibaba,记录一下自己学习Spring Cloud Al ...
- Spring Cloud Alibaba学习笔记(15) - 整合Spring Cloud Gateway
Spring Cloud Gateway 概述 Spring Cloud Gateway 是 Spring Cloud 的一个全新项目,该项目是基于Netty.Reactor以及WEbFlux构建,它 ...
- Spring Cloud Alibaba学习笔记(12) - 使用Spring Cloud Stream 构建消息驱动微服务
什么是Spring Cloud Stream 一个用于构建消息驱动的微服务的框架 应用程序通过 inputs 或者 outputs 来与 Spring Cloud Stream 中binder 交互, ...
- Spring Cloud Alibaba学习笔记(3) - Ribbon
1.手写一个客户端负载均衡器 在了解什么是Ribbon之前,首先通过代码的方式手写一个负载均衡器 RestTemplate restTemplate = new RestTemplate(); // ...
- Spring Cloud Alibaba学习笔记(2) - Nacos服务发现
1.什么是Nacos Nacos的官网对这一问题进行了详细的介绍,通俗的来说: Nacos是一个服务发现组件,同时也是一个配置服务器,它解决了两个问题: 1.服务A如何发现服务B 2.管理微服务的配置 ...
- Spring Cloud Alibaba学习笔记
引自B站楠哥:https://space.bilibili.com/434617924 一.创建父工程 创建父工程hello-spring-cloud-alibaba Spring Cloud Ali ...
- Spring Cloud Alibaba学习笔记(22) - Nacos配置管理
目前业界流行的统一配置管理中心组件有Spring Cloud Config.Spring Cloud Alibaba的Nacos及携程开源的Apollo,本文将介绍Nacos作为统一配置管理中心的使用 ...
- Spring Cloud Alibaba学习笔记(7) - Sentinel规则持久化及生产环境使用
Sentinel 控制台 需要具备下面几个特性: 规则管理及推送,集中管理和推送规则.sentinel-core 提供 API 和扩展接口来接收信息.开发者需要根据自己的环境,选取一个可靠的推送规则方 ...
- Spring Cloud Alibaba学习笔记(16) - Spring Cloud Gateway 内置的路由谓词工厂
Spring Cloud Gateway路由配置的两种形式 Spring Cloud Gateway的路由配置有两种形式,分别是路由到指定的URL以及路由到指定的微服务,在上文博客的示例中我们就已经使 ...
随机推荐
- 大白话讲解 Java程序的运行机制和JVM
据我们所知,Java程序是跨平台的.那么Java是如何实现跨平台的呢?看完下面几句话就会恍然大悟! 1.为什么Java语言既是编译型语言又是解释型语言呢? 答:运行Java程序,首先需要经过编译,编译 ...
- java数据结构——二叉树(BinaryTree)
前面我们已经学习了一些线性结构的数据结构和算法,接下来我们开始学习非线性结构的内容. 二叉树 前面显示增.删.查.遍历方法,完整代码在最后面. /** * 为什么我们要学习树结构. * 1.有序数组插 ...
- Micronaut 微服务中使用 Kafka
今天,我们将通过Apache Kafkatopic构建一些彼此异步通信的微服务.我们使用Micronaut框架,它为与Kafka集成提供专门的库.让我们简要介绍一下示例系统的架构.我们有四个微型服务: ...
- 理解JS引擎的执行机制
首先,请牢记2点: (1) JS是单线程语言 (2) JS的Event Loop是JS的执行机制.深入了解JS的执行,就等于深入了解JS里的event loop 1.灵魂三问 : JS为什么是单线程的 ...
- 又写了两个实用的微信小程序
忙里偷闲,最近又写了两个小程序. 一个是手机壁纸小程序,名字叫[来搜图],特点是界面干净清爽,没有多余的东西.开发这个是因为讨厌市面上那些壁纸app那样那么多的广告,真的太影响体验了.而且小程序更加轻 ...
- 学习VBA
学习VBA VBA 就是 (Visual basic for Application) 用的比较多的是在Excel中处理数据,可以方便快捷地使用编程方式来对数据进行操作. VBA 数据类型 Integ ...
- Ng项目安装到指定盘符
全局安装 1.node.js 2.cnpm 3.typeScript 4.ng-cli 指定安装: 1.首先在想要的盘符内新建一个名字 例: D盘中新建一个angualr的文件夹 2.在开始菜单中输入 ...
- 多线程基础(主要内容转载于https://segmentfault.com/a/1190000014428190)
进程作为资源分配的基本单位 线程作为资源调度的基本单位,是程序的执行单元,执行路径(单线程:一条执行路径,多线程:多条执行路径).是程序使用CPU的最基本单位. 线程有3个基本状态: 执行.就绪.阻塞 ...
- Kubernetes中的PV和PVC是啥
K8S引入了一组叫作Persistent Volume Claim(PVC)和Persistent Volume(PV)的API对象,大大降低了用户声明和使用持久化Volume的门槛. 在Pod的Vo ...
- 【NOIP模拟赛】小奇挖矿 2
[题目背景] 小奇飞船的钻头开启了无限耐久+精准采集模式!这次它要将原矿运到泛光之源的矿石交易市场,以便为飞船升级无限非概率引擎. [问题描述] 现在有m+1个星球,从左到右标号为0到m,小奇最初在0 ...