pod管理调度约束、与健康状态检查
pod的管理
[root@k8s-master ~]# vim pod.yaml
apiVersion: v1
kind: Pod
metadata:
name: nginx-pod
labels:
app: nginx
spec:
containers:
- name: nginx
image: nginx
创建pod
[root@k8s-master ~]# kubectl create -f pod.yaml
查看pod信息
[root@k8s-master ~]# kubectl get all
po/nginx-pod
1/1 Running 0 1m
查看pod的详细信息
[root@k8s-master ~]# kubectl describe po/nginx-pod
删除创建的pod
[root@k8s-master ~]# kubectl delete -f pod.yaml
POD的资源管理
[root@k8s-master ~]# vim pod.yaml
apiVersion: v1
kind: Pod
metadata:
name: nginx-pod
labels:
app: nginx
spec:
containers:
- name: nginx
image: nginx
resources:
requests:
memory: "64Mi"
cpu: "250m"
limits:
memory: "128Mi"
cpu: "500m"
[root@k8s-master ~]# kubectl create -f pod.yaml
[root@k8s-master ~]# kubectl describe po/nginx-pod
Limits:
cpu: 500m
memory: 128Mi
pod调度约束与重启策略
[root@k8s-master ~]# vim pod.yaml
apiVersion: v1
kind: Pod
metadata:
name: nginx-pod
labels:
app: nginx
spec:
nodeName: 192.168.30.22
nodeSelector:
env_role: dev
containers:
- name: nginx
image: nginx
[root@k8s-master ~]# kubectl create -f pod.yaml
我们指定的是pod在22主机上创建,自然也会分配到这个主机上
[root@k8s-master ~]# kubectl get pod -o wide
nginx-pod 1/1 Running 0 2m 172.17.11.3 192.168.30.22
查看主机名标签
[root@k8s-master ~]# kubectl describe node 192.168.30.22
Name: 192.168.30.22
Roles: <none>
Labels: beta.kubernetes.io/arch=amd64
beta.kubernetes.io/os=linux
kubernetes.io/hostname=192.168.30.22
添加标签
[root@k8s-master ~]# kubectl label nodes 192.168.30.22 env_role=dev
再次查看主机名标签已经把env_role=dev添加进去
[root@k8s-master ~]# kubectl describe node 192.168.30.22
Name: 192.168.30.22
Roles: <none>
Labels: beta.kubernetes.io/arch=amd64
beta.kubernetes.io/os=linux
env_role=dev
kubernetes.io/hostname=192.168.30.22
根据我们的约束再次创建pod已经又放在22主机上了
[root@k8s-master ~]# kubectl get pod -o wide
nginx-pod2 1/1 Running 0 1m 172.17.11.5 192.168.30.22
pod健康状态检查
提供 Probe 机制,有以下两种类型:
l livenessProbe
如果检查失败,将杀死容器,根据Pod的restartPolicy来操作。
l readinessProbe
如果检查失败,Kubernetes会把Pod从service endpoints中剔除。
Probe 支持以下三种检查方法:
l httpGet
发送HTTP请求,返回200-400范围状态码为成功。
l exec
执行Shell命令返回状态码是0为成功。
l tcpSocket
发起TCP Socket建立成功。
[root@k8s-master ~]# vim pod.yaml
apiVersion: v1
kind: Pod
metadata:
name: nginx-pod
labels:
app: nginx
spec:
containers:
- name: nginx
image: nginx
ports:
- containerPort: 80
livenessProbe:
httpGet:
path: /index.html
port: 80
[root@k8s-master ~]# kubectl create -f pod.yaml
查看详细信息,可以看到这里容器访问80端口的信息
[root@k8s-master ~]# kubectl describe po/nginx-pod
Restart Count: 0
Liveness: http-get http://:80/index.html delay=0s timeout=1s period=10s #success=1 #failure=3
Environment: <none>
通过日志可以看到这里使用kube-probe来访问
[root@k8s-master ~]# kubectl logs nginx-pod -f
172.17.80.1 - - [08/Jul/2019:10:08:14 +0000] "GET /index.html HTTP/1.1" 200 612 "-" "kube-probe/1.9" "-"
172.17.80.1 - - [08/Jul/2019:10:08:24 +0000] "GET /index.html HTTP/1.1" 200 612 "-" "kube-probe/1.9" "-"
再开一个窗口,进入容器删除index.html看看日志的变化
[root@k8s-master ~]# kubectl exec -it nginx-pod bash
root@nginx-pod:/# cd /usr/share/nginx/html/
root@nginx-pod:/usr/share/nginx/html# ls
50x.html index.html
root@nginx-pod:/usr/share/nginx/html# rm index.html
root@nginx-pod:/usr/share/nginx/html# exit
这边10秒后显示404找不到页面了
2019/07/08 10:17:14 [error] 6#6: *55 open() "/usr/share/nginx/html/index.html" failed (2: No such file or directory), client: 172.17.80.1, server: localhost, request: "GET /index.html HTTP/1.1", host: "172.17.80.4:80"
172.17.80.1 - - [08/Jul/2019:10:17:14 +0000] "GET /index.html HTTP/1.1" 404 153 "-" "kube-probe/1.9" "-"
172.17.80.1 - - [08/Jul/2019:10:17:24 +0000] "GET /index.html HTTP/1.1" 404 153 "-" "kube-probe/1.9" "-"
查看pod的详细信息,已经输出404页面,但是它还会再创建一个容器并启动
[root@k8s-master ~]# kubectl describe pod nginx-pod
Warning Unhealthy 22s (x3 over 42s) kubelet, 192.168.30.23 Liveness probe failed: HTTP probe failed with statuscode: 404
Normal Created 5m (x2 over 14m) kubelet, 192.168.30.23 Created container
Normal Started 5m (x2 over 14m) kubelet, 192.168.30.23 Started container
进入容器再看,容器又有了
root@nginx-pod:~# cd /usr/share/nginx/html
root@nginx-pod:/usr/share/nginx/html# ls
50x.html index.html
pod管理调度约束、与健康状态检查的更多相关文章
- 7.5 实现基于探针对pod中的访问的健康状态检查
1.pod的声明周期 取值 描述 Pending Pod 已被 Kubernetes 系统接受,但有一个或者多个容器尚未创建亦未运行.此阶段包括等待 Pod 被调度的时间和通过网络下载镜像的时间, R ...
- Tengine笔记3:Nginx的反向代理和健康状态检查
通常代理服务器只用于处理内部网络对Intenet的请求,客户端必须通过代理服务器把本来要发送到Web服务器上的请求通过代理服务器分发给Web服务器,Web服务器响应时再通过代理服务器把响应发给客户端: ...
- Varnish后端主机的健康状态检查
author:JevonWei 版权声明:原创作品 配置后端主机的Health Check 环境 Varnish 192.168.198.139 图片服务端 192.168.198.120 程序服务端 ...
- nginx_upstream_check_module-master对nginx的后端机器进行健康状态检查报403错误【转】
在nginx.conf配置文件中 在server添加 location /nstatus { check_status; access_log off; #allow 192.168.2.11; #d ...
- Kubernetes 健康状态检查(九)
强大的自愈能力是 Kubernetes 这类容器编排引擎的一个重要特性.自愈的默认实现方式是自动重启发生故障的容器.除此之外,用户还可以利用 Liveness 和 Readiness 探测机制设置更精 ...
- 利用ldirectord实现lvs后端realserver健康状态检查
ldirectord用来实现LVS负载均衡资源在主.备节点间的故障转移.在首次启动时,ldirectord可以自动创建IPVS表.此外,它还可以监控各RealServer的运行状态,一旦发现某Real ...
- http健康状态检查
来自为知笔记(Wiz)
- 如何编写LVS对Real Server的健康状态检测脚本
简介:Linux 虚拟服务器(Linux Virtual Server. LVS),是一个由章文松开发的自由软件.利用KVS可以实现高可用的.可伸缩缩的Web, Mail, Cache和Medial等 ...
- WEB缓存系统之varnish代理以及健康状态检测配置
前文我们聊了下varnish的缓存项修剪配置,回顾请参考https://www.cnblogs.com/qiuhom-1874/p/12666406.html:今天我来说一下varnish作为代理服务 ...
随机推荐
- 数字crawlergo动态爬虫结合长亭XRAY被动扫描
群里师傅分享了个挖洞的视频,搜了一下,大概就是基于这篇文章录的 https://xz.aliyun.com/t/7047 (小声哔哔一下,不得不说,阿里云先知社区和360酒仙桥六号部队公众号这两个地方 ...
- linux重启后nginx服务无法启动
查看ngin.conf pid的内容 例如: pid /usr/local/nginx/logs/nginx.pid 根据以上配置内容来做,检查/usr/local/nginx/logs/是否存在,如 ...
- idea修改项目名导致无法找到主类
描述 本地创建项目copy或者是修改项目名和文件夹名称后 启动springboot项目失败 控制台报错 错误无法找到主类 解决办法 1. 求助互联网得知 需要执行 mvn clean install( ...
- java使用map去重复
public class Test { public static void main(String[] args) { Map<Number, String> map1 = new Ha ...
- 【kinetic】操作系统探索总结(八)键盘控制
如果尝试过前面的例子,有没有感觉每次让机器人移动还要在终端里输入指令,这也太麻烦了,有没有办法通过键盘来控制机器人的移动呢?答案室当然的了.我研究了其他几个机器人键盘控制的代码,还是有所收获的,最后移 ...
- 高性能MySQL学习总结二----常见数据类型选择及优化
一.数据类型的选择 MySQL的数据类型有很多种,选择正确的数据类型对于获得高性能特别地重要,如何选择合适的数据类型呢?主要遵从以下三个原则: 1.更小的通常情况下性能更好 一般情况下,应该尽量使用可 ...
- TurtleBot3使用课程-第三节b(北京智能佳)
目录 1.使用TurtleBot3机械手运行SLAM 2 1.1 roscore运行 2 1.2 准备行动 3 1.3 运行SLAM节点 3 1.4 运行turtlebot3_teleop_key节点 ...
- SpringBoot整合Shiro权限框架实战
什么是ACL和RBAC ACL Access Control list:访问控制列表 优点:简单易用,开发便捷 缺点:用户和权限直接挂钩,导致在授予时的复杂性,比较分散,不便于管理 例子:常见的文件系 ...
- Adnc简介
Adnc是一个轻量级的.Net Core微服务(microservices)快速开发框架,同时也可以应用于单体架构系统的开发.框架基于JWT认证授权,包含基础的后台管理功能,代码简洁.易上手.学习成本 ...
- 2020DevOps状态报告——平台模型:扩展DevOps的新方法
平台模型是我们在这个领域看到越来越多的方法,它源于负责产品或服务的端到端交付的产品团队的理念.如果只应用于单一的产品,或者几个产品,它的效果很好. 但如果有数百种产品或服务,把一个产品团队用于这些产品 ...