聊聊 Kubernetes Pod or Namespace 卡在 Terminating 状态的场景
这个话题,想必玩过kubernetes的同学当不陌生,我会分Pod和Namespace分别来谈。
开门见山,为什么Pod会卡在Terminationg状态?
一句话,本质是API Server虽然标记了对象的删除,但是作为实际清理的控制器kubelet, 并不能关停Pod或相关资源, 因而没能通知API Server做实际对象的清理。
原因何在?要解开这个原因,我们先来看Pod Terminating的基本流程:
- 客户端(比如kubectl)提交删除请求到API Server
- 可选传递 --grace-period 参数
- API Server接受到请求之后,做 Graceful Deletion 检查
- 若需要 graceful 删除时,则更新对象的 metadata.deletionGracePeriodSeconds和metadata.deletionTimestamp字段。这时候describe查看对象的话,会发现其已经变成Terminating状态了
- Pod所在的节点,kubelet检测到Pod处于Terminating状态时,就会开启Pod的真正删除流程
- 如果Pod中的容器有定义preStop hook事件,那kubelet会先执行这些容器的hook事件
- 之后,kubelet就会Trigger容器运行时发起
TERMsignal 给该Pod中的每个容器
- 在Kubelet开启Graceful Shutdown的同时,Control Plane也会从目标Service的Endpoints中摘除要关闭的Pod。ReplicaSet和其他的workload服务也会认定这个Pod不是个有效副本了。同时,Kube-proxy 也会摘除这个Pod的Endpoint,这样即使Pod关闭很慢,也不会有流量再打到它上面。
- 如果容器正常关闭那很好,但如果在grace period 时间内,容器仍然运行,kubelet会开始强制shutdown。容器运行时会发送
SIGKILL信号给Pod中所有运行的进程进行强制关闭 - 注意在开启Pod删除的同时,kubelet的其它控制器也会处理Pod相关的其他资源的清理动作,比如Volume。而待一切都清理干净之后,Kubelet才通过把Pod的grace period时间设为0来通知API Server强制删除Pod对象。
参考链接: https://kubernetes.io/docs/concepts/workloads/pods/pod-lifecycle/#pod-termination
只有执行完第六步,Pod的API对象才会被真正删除。那怎样才认为是"一切都清理干净了"呢?我们来看源码:
// PodResourcesAreReclaimed returns true if all required node-level resources that a pod was consuming have
// been reclaimed by the kubelet. Reclaiming resources is a prerequisite to deleting a pod from theAPI Server.
func (kl *Kubelet) PodResourcesAreReclaimed(pod *v1.Pod, status v1.PodStatus) bool {
if kl.podWorkers.CouldHaveRunningContainers(pod.UID) {
// We shouldn't delete pods that still have running containers
klog.V(3).InfoS("Pod is terminated, but some containers are still running", "pod", klog.KObj(pod))
return false
}
if count := countRunningContainerStatus(status); count > 0 {
// We shouldn't delete pods until the reported pod status contains no more running containers (the previous
// check ensures no more status can be generated, this check verifies we have seen enough of the status)
klog.V(3).InfoS("Pod is terminated, but some container status has not yet been reported", "pod", klog.KObj(pod), "running", count)
return false
}
if kl.podVolumesExist(pod.UID) && !kl.keepTerminatedPodVolumes {
// We shouldn't delete pods whose volumes have not been cleaned up if we are not keeping terminated pod volumes
klog.V(3).InfoS("Pod is terminated, but some volumes have not been cleaned up", "pod", klog.KObj(pod))
return false
}
if kl.kubeletConfiguration.CgroupsPerQOS {
pcm := kl.containerManager.NewPodContainerManager()
if pcm.Exists(pod) {
klog.V(3).InfoS("Pod is terminated, but pod cgroup sandbox has not been cleaned up", "pod", klog.KObj(pod))
return false
}
}
// Note: we leave pod containers to be reclaimed in the background since dockershim requires the
// container for retrieving logs and we want to make sure logs are available until the pod is
// physically deleted.
klog.V(3).InfoS("Pod is terminated and all resources are reclaimed", "pod", klog.KObj(pod))
return true
}
是不是很清晰?总结下来就三个原因:
- Pod里没有Running的容器
- Pod的Volume也清理干净了
- Pod的cgroup设置也没了
如是而已。
自然,其反向对应的就是各个异常场景了。我们来细看:
- 容器停不掉 - 这种属于CRI范畴,常见的一般使用docker作为容器运行时。笔者就曾经遇到过个场景,用
docker ps能看到目标容器是Up状态,但是执行docker stop or rm却没有任何反应,而执行docker exec,会报no such container的错误。也就是说此时这个容器的状态是错乱的,docker自己都没法清理这个容器,可想而知kubelet更是无能无力。workaround恢复操作也简单,此时我只是简单的重启了下docker,目标容器就消失了,Pod的卡住状态也很快恢复了。当然,若要深究,就需要看看docker侧,为何这个容器的状态错乱了。- 更常见的情况是出现了僵尸进程,对应容器清理不了,Pod自然也会卡在Terminating状态。此时要想恢复,可能就只能重启机器了。
- Volume清理不了 - 我们知道在PV的"两阶段处理流程中",Attach&Dettach由Volume Controller负责,而Mount&Unmount则是kubelet要参与负责。笔者在日常中有看到一些因为自定义CSI的不完善,导致kubelet不能Unmount Volume,从而让Pod卡住的场景。所以我们在日常开发和测试自定义CSI时,要小心这一点。
- cgroups没删除 - 启用QoS功能来管理Pod的服务质量时,kubelet需要为Pod设置合适的cgroup level,而这是需要在相应的位置写入合适配置文件的。自然,这个配置也需要在Pod删除时清理掉。笔者日常到是没有碰到过cgroups清理不了的场景,所以此处暂且不表。
现实中导致Pod卡住的细分场景可能还有很多,但不用担心,其实多数情况下通过查看kubelet日志都能很快定位出来的。之后顺藤摸瓜,恢复方案也大多不难。
当然还有一些系统级或者基础设施级异常,比如kubelet挂了,节点访问不了API Server了,甚至节点宕机等等,已经超过了kubelet的能力范畴,不在此讨论范围之类。
还有个注意点,如果你发现kubelet里面的日志有效信息很少,要注意看是不是Log Level等级过低了。从源码看,很多更具体的信息,是需要大于等于3级别才输出的。
那Namespace卡在Terminating状态的原因是啥?
显而易见,删除Namespace意味着要删除其下的所有资源,而如果其中Pod删除卡住了,那Namespace必然也会卡在Terminating状态。
除此之外,结合日常使用,笔者发现CRD资源发生删不掉的情况也比较高。这是为什么呢?至此,那就不得不聊聊 Finalizers机制了。
官方有篇博客专门讲到了这个,里面有个实验挺有意思。随便给一个configmap,加上个finalizers字段之后,然后使用kubectl delete删除它就会发现,直接是卡住的,kubernetes自身永远也删不了它。
参考: https://kubernetes.io/blog/2021/05/14/using-finalizers-to-control-deletion/#understanding-finalizers
原因何在?
原来Finalizers在设计上就是个pre-delete的钩子,其目的是让相关控制器有机会做自定义的清理动作。通常控制器在清理完资源后,会将对象的finalizers字段清空,然后kubernetes才能接着删除对象。而像上面的实验,没有相关控制器能处理我们随意添加的finalizers字段,那对象当然会一直卡在Terminating状态了。
自己开发CRD及Controller,因成熟度等因素,发生问题的概率自然比较大。除此之外,引入webhook(mutatingwebhookconfigurations/validatingwebhookconfigurations)出问题的概率也比较大,日常也要比较注意。
综合来看,遇Namespace删除卡住的场景,笔者认为,基本可以按以下思路排查:
kubectl get ns $NAMESPACE -o yaml, 查看conditions字段,看看是否有相关信息- 如果上面不明显,那就可以具体分析空间下,还遗留哪些资源,然后做更针对性处理
- 参考命令:
kubectl api-resources --verbs=list --namespaced -o name | xargs -n 1 kubectl get --show-kind --ignore-not-found -n $NAMESPACE
- 参考命令:
找准了问题原因,然后做相应处理,kubernetes自然能够清理对应的ns对象。不建议直接清空ns的finalizers字段做强制删除,这会引入不可控风险。
参考: https://github.com/kubernetes/kubernetes/issues/60807#issuecomment-524772920
相关阅读
前同事也有几篇关于kubernetes资源删除的文章,写的非常好,推荐大家读读:
往期推荐
聊聊 Kubernetes Pod or Namespace 卡在 Terminating 状态的场景的更多相关文章
- 【Kubernetes】Kubernetes删除namespace后持续terminating状态
删除isti和foo的配置文件之后,namespace持续terminating状态,此时也无法再创建istio-system的namespace namespace "istio-syst ...
- kubernetes删除pod一直处于terminating状态的解决方法
kubernetes删除pod一直处理 Terminating状态 # kubectl get po -n mon NAME READY STATUS RESTARTS AGE alertmanage ...
- kubernetes删除pod,pod一直处于Terminating状态
删除pod,pod一直处于Terminating状态 [root@yxz-cluster01 deploy_yaml]# kubectl get pod -n yunanbao NAME READY ...
- Kubernetes中强制删除Pod、namespace
Kubernetes中强制删除Pod.namespace 解决方法 可使用kubectl中的强制删除命令 # 删除POD kubectl delete pod PODNAME --force --gr ...
- Kubernetes K8S之Pod跨namespace名称空间访问Service服务
Kubernetes的两个Service(ServiceA.ServiceB)和对应的Pod(PodA.PodB)分别属于不同的namespace名称空间,现需要PodA和PodB跨namespace ...
- Kubernetes删除一直处于Terminating状态的namespace
问题现象: 删除namespace,一直处于Terminating,并且用--force --grace-period=0 也删除不了 develop Terminating 4d9h Error f ...
- K8S-删除Terminating状态的namespace
kubernetes 删除Terminating状态的命名空间 1.检查该namespace下是否还有资源: kubectl get all --namespace=cattle-system 2.删 ...
- k8s的pod或者ns资源一直terminating删除办法
假设你要删掉的ns资源,发现一直删不了处于terminating状态 1.首先试一下先把这个ns的所有pod都删掉kubectl delete pod --all -n <terminating ...
- (六)Kubernetes Pod控制器-ReplicaSet和Deployment和DaemonSet
Pod控制器相关知识 控制器的必要性 自主式Pod对象由调度器调度到目标工作节点后即由相应节点上的kubelet负责监控其容器的存活状态,容器主进程崩溃后,kubelet能够自动重启相应的容器.但对出 ...
随机推荐
- JPA实现泛型baseServcie+Mybatis
在开发的过程中,我们总无法避免不同的实体类会去实现相同的操作(增删查改,分页查询等),因此在开发时,我们期望泛型将通用的方法进行包装,使我们能够专注于实体类自身的独特方法,而非一般性常用且重复性高的方 ...
- python库--pandas--文本文件读取
.read_table() / read_csv() filepath_or_buffer 文件路径 sep='\t' 分隔符. 设置为N, 将尝试自动确定 delimiter=N sep的备 ...
- @RequestParam、@RequestBody、@PathVariable区别和案例分析
一.前言 @RequestParam.@RequestBody.@PathVariable都是用于在Controller层接收前端传递的数据,他们之间的使用场景不太一样,今天来介绍一下!! 二.实体类 ...
- SpringBoot自定义初始化Bean+HashMap优化策略模式实践
策略模式:定义了算法族,分别封装起来,让它们之间可以互相替换,此模式让算法的变化独立于使用算法的客户. 传统的策略模式一般是创建公共接口.定义公共方法-->然后创建实体类实现公共接口.根据各自的 ...
- PHP中使用if的时候为什么建议将常量放在前面?
在某些框架或者高手写的代码中,我们会发现有不少人喜欢在进行条件判断的时候将常量写在前面,比如: if(1 == $a){ echo 111; } 这样做有什么好处呢?我们假设一个不小心的粗心大意,少写 ...
- mysql将语句写入表中
使用create table语句即可 CREATE TABLE membertmp (select a.* from member as a where a.phone <> '' and ...
- 大前端快闪:package.json文件知多少?
最近在公司某项目参与了一些前端工作,作为后端抠脚大汉,改点前端细节磕磕绊绊,改点大前端.工程化.HTTP交互倒也还能做到柳暗花明. 于是打算用后端程序猿的视角记录一些{大前端}的知识快闪,也算是帮助读 ...
- python学习1-博客-DB操作类
#学习python,准备写一个博客,第一天:在别人代码基础上写一个数据库操作的db.py1)python代码 #!/usr/bin/env python # -*- coding: UTF-8 -*- ...
- c++ 的学习 第3集-默认参数
1.默认参数的意思就是 予以形参默认值 2. C++允许函数设置默认参数,在调用时可以根据情况省略实参.规则如下: 默认参数只能按照右到左的顺序 如果函数同时有声明.实现,默认参数只能放在函数声 ...
- P4428-[BJOI2018]二进制【树状数组,set】
正题 题目链接:https://www.luogu.com.cn/problem/P4428 题目大意 长度为\(n\)的\(0/1\)串要求支持 修改一个位置 求区间\([l,r]\)有多少个子区间 ...