注册中心zookeeper被重启,线上微服务全部掉线,怎么回事?!

最近因为一次错误的运维操作,导致线上注册中心zk被重启。而zk重启后发现所有线上微服务开始不断掉线,造成了持续30分钟的P0故障。

整体排查过程深入学习了 zookeeper的session机制,以及在这种异常情况下,RPC框架应该如何处理。

好了,一起来回顾下这次线上故障吧,最佳实践总结放在最后,千万不要错过。

1、现象描述

某天晚上19:43分左右,误操作将线上zk集群下线(stop),总共7台节点,下线了6台,导致zk停止工作。

在发现节点下掉后,于19:51分左右将所有zk节点进行重启(start),期间服务正常运行,没有收到批量业务调用的报错和客诉。

直到19:56分,开始收到大面积调用失败的警报和客诉,我们尝试着依赖自研RPC框架与zk间重连后的「自动恢复」机制,希望能够在短时间内批量恢复。

但是很不幸,过了接近8分钟,没有任何大面积恢复的迹象。结合zk znode节点数上升非常缓慢的情况,于是我们采取了应急措施,将所有微服务的pod原地重启,执行重启后效果显著,大面积服务在短时间内逐步恢复。

2、初步分析

我们自研的RPC框架采用典型的 注册中心+provider+consumer 的模式,通过zk临时节点的方式做服务的注册发现,如下图所示。

结合故障期间发生的现象,我们初步分析:

  • 阶段1:zk集群停服(stop)期间,业务能够正常调用。原因是consumer无法访问zk,暂时失去服务发现能力,所以在这个期间只要服务没有重启,就不会刷新本地的服务发现provider缓存列表provider-list,调用无异常。
  • 阶段2:zk集群启动完毕后,服务间立刻出现调用问题。原因是consumer连接上zk后,立刻进行服务发现操作,然而provider服务这时还没重新注册到zk,读取到的是空地址列表,造成了业务的批量报错。
  • 阶段3:zk恢复后续一段时间,provider服务仍然没「自动重连」到zk,导致consumer持续报错。在所有服务全量重启后,provider服务重新注册成功,consumer恢复。

这里存在一个问题:

  • 为什么zk集群恢复后,provider客户端「自动重连」注册中心的机制没有生效?导致consumer被推送了空地址列表后,没有再收到重新的provider注册节点信息了。

3、深入排查

3.1 问题复现

根据大量测试和真实表现,我们找到了稳定复现本次问题的方法:

zk session过期包括 「服务端过期」 和 「客户端过期」,在「客户端过期」情况下恢复zk集群,会导致「临时节点」丢失,且无法自动恢复的情况。

3.2 分析

1)在集群重启恢复后,RPC框架客户端立刻就与zk集群取得重连,将保存在本地内存待注册的providers节点 + 待订阅的consumers节点 进行重建。

2)但是zk集群此时根据snapshot恢复的「临时节点」(包括provider和consumer) 都还在,因此重建操作返回NodeExist异常,重建失败了。(问题1:为什么没有重试?)

3)在集群重启恢复40s后,将过期Session相关的 临时节点全都移除了。(问题2:为什么要移除?)

4)consumer监听到 节点移除 的空列表,清空了本地provider列表。故障发生了。

基于这个分析,我们需要进一步围绕2个问题进行源码的定位:

  • 问题1:zk集群恢复后,前40s,为什么RPC框架的客户端在创建临时节点失败后没有重试?
  • 问题2:zk集群恢复后,40s后,为什么zk会删除之前所有已经恢复的临时节点?

3.3 问题1:为什么临时节点创建失败没有重试?

通过源码分析,我们看到,RPC框架客户端与服务端取得重连后,会将内存里老的临时节点进行重新创建。

这段逻辑看来没有什么问题,doRegister成功之后才会将该节点从失败列表中移除,否则将继续定时去重试创建。

继续往下走,关键点来了:

这里我们可以看到,在创建临时节点时,吞掉了服务端返回的NodeExistsException,使整个外层的doRegister和doSubscribe(订阅)方法在这种情况下都被认为是重新创建成功,所以只创建了一次。

正如上面分析的,其实正常情况下,这里对NodeExistsException不做处理是没有问题的,就是节点已经存在不用再添加了,也不需要再重试了,但是伴随服务端后续踢出老sessionId同时删除了相关临时节点,就引起了故障。

3.4 问题2:zk为什么删除已经恢复的临时节点

3.4.1 从zk的session机制说起

众所周知,zk session管理在客户端、服务端都有实现,并且两者通过心跳进行交互。

在发送心跳包时,客户端会携带自己的sessionId,服务端收到请求,检查sessionId确认存活后再发送返回结果给客户端。

如果客户端发送了一个服务端并不知道的sessionId,那么服务端会生成一个新的sessionId颁布给客户端,客户端收到后本地进行sessionid的刷新。

3.4.2 zk客户端(curator)session过期机制

当客户端(curator)本地sessionTimeout超时时,会进行本地zk对象的重建(reset),我们从源码可以看到默认将本地的sessionId重置为0了。

zk服务端后续收到这个为“0”sessionId,认为是一个未知的session需要创建,接着就为客户端创建了一个新的sessionId。

3.4.3 服务端(zookeeper)session过期处理机制

服务端(zookeeper) sessionTimeout的管理,是在zk会话管理器中看到一个线程任务,不断判断管理的session是否有超时(获取下一个过期时间点nextExpirationTime已经超时的会话),并进行会话的清理。

我们继续往下走,关键点来了,在清理session的过程中,除了将sessionId从本地expiryMap中清除外,还进行了临时节点的清理:

原来zkserver端是将sessionId和它所创建的临时节点进行了绑定。伴随着服务端sessionId的过期,绑定的所有临时节点也会随之删除。

因此,zk集群恢复后40s,zk服务端session超时,删除了过期session的所有相关临时节点。

4、 故障根本原因总结

1)zk集群恢复的第一时间,对zk的snapshot文件进行了读取并初始化zk数据,取到了老session,进行了create session的操作,完成了一次老session的续约(重置40s)。

集群恢复关键入口-重新加载snapshot:

反序列化最近的snapshot文件,并读取session恢复到本地内存:

进行session恢复(创建)操作,默认session timeout 40s:

2)而此时客户端session早已经过期,带着空sessionid 0x0进行重连,获得新sessionId。但是此时RPC框架在临时节点注册失败后吞掉了服务端返回的NodeExistsException,被认为是重新创建成功,所以只创建了一次。

3)zk集群恢复后经过40s最终因为服务端session过期,将过期sessionId和及其绑定的临时节点进行了清除。

4)consumer监听到 节点移除 的空列表,清空了本地provider列表。故障发生了。

5、解决方案

经过上面的源码分析和解答,解决方案有两种:

方案1:客户端(curator)设置session过期时间更长或者不过期,那么集群恢复后的前40s,客户端带着原本的sessionid跟服务端做一次请求,就自动续约了,不再过期。

方案2:客户端session过期后,带着空sessionid 0x0进行重连的时候,对NodeExsitException做处理,进行 删除-重添加 操作,保证重连成功。

于是我们调研了一下业界使用zk的开源微服务框架是否支持自愈,以及如何实现的:

dubbo采用了方案2。

注释也写的非常清楚:

“ZNode路径已经存在,因为我们只会在会话过期时尝试重新创建节点,所以这种重复可能是由zk服务器的删除延迟引起的,这意味着旧的过期会话可能仍然保存着这个ZNode,而服务器只是没有时间进行删除。在这种情况下,我们可以尝试删除并再次创建。”

看来dubbo确实后续也考虑到这个边界场景,防止踩坑。

所以最后我们的解决方案也是借鉴dubbo fix的逻辑,进行节点的替换:先deletePath再createPath,这么做的原因是将zk服务端内存维护的过期sessionId替换新的sessionId,避免后续zk清理老sessionId时将所有绑定的节点删除。

6、最佳实践

回顾整个故障,我们其实还忽略了一点最佳实践。

除了优化对异常的捕获处理外,RPC框架对注册中心的空地址推送也应该做特殊判断,用业界的专业名词来说,就是「推空保护」。

所谓「推空保护」,就是在服务发现监听获取空节点列表时,维持本地服务发现列表缓存,而不是清空处理。

这样可以完全避免类似问题。

都看到最后了,原创不易,点个关注,点个赞吧~

文章持续更新,可以微信搜索「阿丸笔记 」第一时间阅读,回复【笔记】获取Canal、MySQL、HBase、JAVA实战笔记,回复【资料】获取一线大厂面试资料。

知识碎片重新梳理,构建Java知识图谱:github.com/saigu/JavaK…(历史文章查阅非常方便)

zookeeper重启,线上微服务全部掉线,怎么回事?的更多相关文章

  1. Java微服务随机掉线排查思路

    背景 我们的业务共使用11台(阿里云)服务器,使用SpringcloudAlibaba构建微服务集群,共计60个微服务,全部注册在同一个Nacos集群 流量转发路径: nginx->spring ...

  2. 使用Dump转储文件排查线上环境服务未知问题

    利用Dump转储文件获取正式环境程序堆栈状态 服务异常找不到原因时,我们通常通过重新启动服务来尝试解决问题,但是在决定重启之前,请不要立刻重启Windows服务或站点 重启服务会让当前案发现场的内存证 ...

  3. 记一次线上dubbo服务超时和线程池满问题排查

    线上某dubbo服务A调用dubbo服务B的接口X方法,调用端A日志中出现了很多超时的情况,提供端B该接口X超时时间设置为60s: 查看提供端B的日志,报了很多线程池满的异常: Caused by: ...

  4. 线上redis服务内存异常分析。

    项目中,新增了一个统计功能,用来统计不同手机型号的每天访问pv,看了下redis2.6有个setbit的功能,于是打算尝尝鲜把 redis从2.4更新到了2.6 因为是租了vps.服务器的内存只有4g ...

  5. 关于使用koa实现线上 https服务

    var https=require("https");//https服务var fs= require("fs");var Koa = require('koa ...

  6. 基于hprose-golang创建RPC微服务

    Hprose(High Performance Remote Object Service Engine) 是一款先进的轻量级.跨语言.跨平台.无侵入式.高性能动态远程对象调用引擎库.它不仅简单易用, ...

  7. 线上任务的mysql 重启

    我们的业务是 所使用的数据库是 自己搭建的mysql-server-5.05, 服务器 红帽子6.0. 考虑到 服务的稳定性,计划将数据库向dba进行迁移,由他们进行维护.dba的迁移计划是 1 先创 ...

  8. 微服务的一种开源实现方式——dubbo+zookeeper

    转自: http://blog.csdn.NET/zhdd99/article/details/52263609 微服务架构成了当下的技术热点,实现微服务是要付出很大成本的,但也许是因为微服务的优点太 ...

  9. python docker 多进程提供 稳定tensorflow gpu 线上服务

    尝试了太多的python多进程的服务,在tensorflow 的线上GPU服务中总是不理想.tensorlfow serving docker服务这些也有些不便. 今天抽空给大家分享一个成功的经验.失 ...

  10. 【开源】.net微服务开发引擎Anno 让复杂的事简单点- 日志、链路追踪一目了然 (上)

    1.Anno简介? Anno是一个微服务框架引擎.入门简单.安全.稳定.高可用.全平台可视化监控.依赖第三方框架少.详情请查看<[开源].net微服务开发引擎Anno开源啦> 本章主题:. ...

随机推荐

  1. C#-读取写入Excel

    /// <summary>  /// 读取Excel文档  /// </summary>  /// <param name="Path">文件名 ...

  2. P3512 [POI2010]PIL-Pilots 单调队列的应用

    题目描述 给定n,k和一个长度为n的序列,求最长的最大值最小值相差不超过k的序列 输入格式 第一行两个有空格隔开的整数k(0<=k<=2000,000,000),n(1<=n< ...

  3. jsp第4个作业(2)

    <%@ page language="java" import="java.util.*" pageEncoding="utf-8"% ...

  4. 【Win11】电脑开机内存占用过高

    联想拯救者 Y7000P 1.Win+R打开运行输入"MdSched"   重启 2.Windows PowerShell(管理员)->并运行该命令 Disable-MMAg ...

  5. 关于ADB命令工具

    android提供了不少命令行工具,方便我们调试和查看信息.下面是frameworks/base/cmds(android 6.0.1)中的命令. $ tree cmds -L 1 cmds am├─ ...

  6. CV入坑

    https://www.cnblogs.com/fldev/p/14360149.html

  7. Rstudio R get filename full path

    FILENAME=basename(rstudioapi::getActiveDocumentContext()$path) FULLPATH=dirname(rstudioapi::getActiv ...

  8. density plot

    FIN=read.table("/Users/zhongyuantian/macshare/workSpace2021/1.TFY/1.3.TFY20201215/1.3.1.TFY1C_T ...

  9. C语言中~与!的区别

    ! 是逻辑非or否定 ​ 凡是a的值不为0的,!a 就等于0: ​ 如果a的值为0,则 !a 的值为1 而~这个是 按位取反 比如 int a=2 ; 用二进制表示为00 00 00 10; 则 !a ...

  10. EF6 Code First Migrations

    参考地址:https://learn.microsoft.com/en-us/ef/ef6/modeling/code-first/migrations/ 1.启动Migrations Enable- ...