pod的管理

[root@k8s-master ~]# vim pod.yaml

apiVersion: v1

kind: Pod

metadata:

name: nginx-pod

labels:

app: nginx

spec:

containers:

- name: nginx

image: nginx

创建pod

[root@k8s-master ~]# kubectl create -f pod.yaml

查看pod信息

[root@k8s-master ~]# kubectl get all

po/nginx-pod

1/1       Running   0          1m

查看pod的详细信息

[root@k8s-master ~]# kubectl describe po/nginx-pod

删除创建的pod

[root@k8s-master ~]# kubectl delete -f pod.yaml

POD的资源管理

[root@k8s-master ~]# vim pod.yaml

apiVersion: v1

kind: Pod

metadata:

name: nginx-pod

labels:

app: nginx

spec:

containers:

- name: nginx

image: nginx

resources:

requests:

memory: "64Mi"

cpu: "250m"

limits:

memory: "128Mi"

cpu: "500m"

[root@k8s-master ~]# kubectl create -f pod.yaml

[root@k8s-master ~]# kubectl describe po/nginx-pod

Limits:

cpu:     500m

memory:  128Mi

pod调度约束与重启策略

[root@k8s-master ~]# vim pod.yaml

apiVersion: v1

kind: Pod

metadata:

name: nginx-pod

labels:

app: nginx

spec:

nodeName: 192.168.30.22

nodeSelector:

env_role: dev

containers:

- name: nginx

image: nginx

[root@k8s-master ~]# kubectl create -f pod.yaml

我们指定的是pod在22主机上创建,自然也会分配到这个主机上

[root@k8s-master ~]# kubectl get pod -o wide

nginx-pod                           1/1       Running   0          2m        172.17.11.3   192.168.30.22

查看主机名标签

[root@k8s-master ~]# kubectl describe node 192.168.30.22

Name:               192.168.30.22

Roles:              <none>

Labels:             beta.kubernetes.io/arch=amd64

beta.kubernetes.io/os=linux

kubernetes.io/hostname=192.168.30.22

添加标签

[root@k8s-master ~]# kubectl label nodes 192.168.30.22 env_role=dev

再次查看主机名标签已经把env_role=dev添加进去

[root@k8s-master ~]# kubectl describe node 192.168.30.22

Name:               192.168.30.22

Roles:              <none>

Labels:             beta.kubernetes.io/arch=amd64

beta.kubernetes.io/os=linux

env_role=dev

kubernetes.io/hostname=192.168.30.22

根据我们的约束再次创建pod已经又放在22主机上了

[root@k8s-master ~]# kubectl get pod -o wide

nginx-pod2                          1/1       Running   0          1m        172.17.11.5   192.168.30.22

pod健康状态检查

提供 Probe 机制,有以下两种类型:

l livenessProbe

如果检查失败,将杀死容器,根据Pod的restartPolicy来操作。

l readinessProbe

如果检查失败,Kubernetes会把Pod从service endpoints中剔除。

Probe 支持以下三种检查方法:

l httpGet

发送HTTP请求,返回200-400范围状态码为成功。

l exec

执行Shell命令返回状态码是0为成功。

l tcpSocket

发起TCP Socket建立成功。

[root@k8s-master ~]# vim pod.yaml

apiVersion: v1

kind: Pod

metadata:

name: nginx-pod

labels:

app: nginx

spec:

containers:

- name: nginx

image: nginx

ports:

- containerPort: 80

livenessProbe:

httpGet:

path: /index.html

port: 80

[root@k8s-master ~]# kubectl create -f pod.yaml

查看详细信息,可以看到这里容器访问80端口的信息

[root@k8s-master ~]# kubectl describe po/nginx-pod

Restart Count:  0

Liveness:       http-get http://:80/index.html delay=0s timeout=1s period=10s #success=1 #failure=3

Environment:    <none>

通过日志可以看到这里使用kube-probe来访问

[root@k8s-master ~]# kubectl logs nginx-pod -f

172.17.80.1 - - [08/Jul/2019:10:08:14 +0000] "GET /index.html HTTP/1.1" 200 612 "-" "kube-probe/1.9" "-"

172.17.80.1 - - [08/Jul/2019:10:08:24 +0000] "GET /index.html HTTP/1.1" 200 612 "-" "kube-probe/1.9" "-"

再开一个窗口,进入容器删除index.html看看日志的变化

[root@k8s-master ~]# kubectl exec -it nginx-pod bash

root@nginx-pod:/# cd /usr/share/nginx/html/

root@nginx-pod:/usr/share/nginx/html# ls

50x.html  index.html

root@nginx-pod:/usr/share/nginx/html# rm index.html

root@nginx-pod:/usr/share/nginx/html# exit

这边10秒后显示404找不到页面了

2019/07/08 10:17:14 [error] 6#6: *55 open() "/usr/share/nginx/html/index.html" failed (2: No such file or directory), client: 172.17.80.1, server: localhost, request: "GET /index.html HTTP/1.1", host: "172.17.80.4:80"

172.17.80.1 - - [08/Jul/2019:10:17:14 +0000] "GET /index.html HTTP/1.1" 404 153 "-" "kube-probe/1.9" "-"

172.17.80.1 - - [08/Jul/2019:10:17:24 +0000] "GET /index.html HTTP/1.1" 404 153 "-" "kube-probe/1.9" "-"

查看pod的详细信息,已经输出404页面,但是它还会再创建一个容器并启动

[root@k8s-master ~]# kubectl describe pod nginx-pod

Warning  Unhealthy              22s (x3 over 42s)  kubelet, 192.168.30.23  Liveness probe failed: HTTP probe failed with statuscode: 404

Normal   Created                5m (x2 over 14m)  kubelet, 192.168.30.23  Created container

Normal   Started                5m (x2 over 14m)  kubelet, 192.168.30.23  Started container

进入容器再看,容器又有了

root@nginx-pod:~# cd /usr/share/nginx/html

root@nginx-pod:/usr/share/nginx/html# ls

50x.html  index.html

pod管理调度约束、与健康状态检查的更多相关文章

  1. 7.5 实现基于探针对pod中的访问的健康状态检查

    1.pod的声明周期 取值 描述 Pending Pod 已被 Kubernetes 系统接受,但有一个或者多个容器尚未创建亦未运行.此阶段包括等待 Pod 被调度的时间和通过网络下载镜像的时间, R ...

  2. Tengine笔记3:Nginx的反向代理和健康状态检查

    通常代理服务器只用于处理内部网络对Intenet的请求,客户端必须通过代理服务器把本来要发送到Web服务器上的请求通过代理服务器分发给Web服务器,Web服务器响应时再通过代理服务器把响应发给客户端: ...

  3. Varnish后端主机的健康状态检查

    author:JevonWei 版权声明:原创作品 配置后端主机的Health Check 环境 Varnish 192.168.198.139 图片服务端 192.168.198.120 程序服务端 ...

  4. nginx_upstream_check_module-master对nginx的后端机器进行健康状态检查报403错误【转】

    在nginx.conf配置文件中 在server添加 location /nstatus { check_status; access_log off; #allow 192.168.2.11; #d ...

  5. Kubernetes 健康状态检查(九)

    强大的自愈能力是 Kubernetes 这类容器编排引擎的一个重要特性.自愈的默认实现方式是自动重启发生故障的容器.除此之外,用户还可以利用 Liveness 和 Readiness 探测机制设置更精 ...

  6. 利用ldirectord实现lvs后端realserver健康状态检查

    ldirectord用来实现LVS负载均衡资源在主.备节点间的故障转移.在首次启动时,ldirectord可以自动创建IPVS表.此外,它还可以监控各RealServer的运行状态,一旦发现某Real ...

  7. http健康状态检查

    来自为知笔记(Wiz)

  8. 如何编写LVS对Real Server的健康状态检测脚本

    简介:Linux 虚拟服务器(Linux Virtual Server. LVS),是一个由章文松开发的自由软件.利用KVS可以实现高可用的.可伸缩缩的Web, Mail, Cache和Medial等 ...

  9. WEB缓存系统之varnish代理以及健康状态检测配置

    前文我们聊了下varnish的缓存项修剪配置,回顾请参考https://www.cnblogs.com/qiuhom-1874/p/12666406.html:今天我来说一下varnish作为代理服务 ...

随机推荐

  1. Samba:error nt_status_host_unreachable

    安装Samba之后: smbclient -L server0.example.com 出现报错:error nt_status_host_unreachable     解决方法:server端把S ...

  2. 2020-2021-1 20209307《Linux内核原理与分析》第五周作业

    一.理论知识 系统调用:操作系统为用户态进程与硬件设备进行交互提供的一组接口. 系统调用的三层皮:API(应用程序接口),中断向量system_call,中断服务程序sys_xyz 宏观上Linux操 ...

  3. 重写Laravel异常处理类

    现在开发前后端分离变得越来越流行了,后端只提供接口返回json格式的数据,即使是错误信息也要以json格式来返回,然而目前无论是Laravel框架还是ThinkPHP框架,都只提供了返回json数据的 ...

  4. Spark性能调优篇一之任务提交参数调整

    问题一:有哪些资源可以分配给spark作业使用? 答案:executor个数,cpu per exector(每个executor可使用的CPU个数),memory per exector(每个exe ...

  5. Cookie注入新方法

       正常输 and 1=1  会有waf 进行拦截    判断一个网站是否支持cookie注入_> 现在是get ,你可以把参数放在post里面试试看看是否返回正常   用hackbar插件也 ...

  6. OSPF --- 不规则区域实验

    OSPF不规则区域实验: 一.知识点整理: OSPF中路由器的角色(看图): 骨干路由器:路由器所有接口属于area 0  -->R3 非骨干路由器:路由器所有接口属于非area 0  --&g ...

  7. js中点回车enter触发事件&layui弹窗按enter键不停弹窗问题的解决&js实现鼠标焦点自动落到文本框(layui)

     js中回车触发事件 一. document.onkeydown = function (e) { // 回车提交表单 // 兼容FF和IE和Opera var theEvent = window.e ...

  8. Java进阶专题(二十) 消息中间件架构体系(2)-- RabbitMQ研究

    前言 接上文,这个继续介绍RabbitMQ,并理解其底层原理. 介绍 RabbitMQ是由erlang语言开发,基于AMQP(Advanced Message Queue 高级消息队列协议)协议实现的 ...

  9. 如何优雅的将Object转换成List

    Main主函数中的 Object obj模拟了List对象.后续的代码首先判断obj是否是List类型,然后使用Class.cast做类型转换. 如果你想使用更方便的方法,可以直接调用下面的函数. p ...

  10. Linux top命令在生产环境的妙用

    top linux下的任务管理器 top命令是Linux下常用的性能分析工具,能够实时显示系统中各个进程的资源占用状况,类似于Windows的任务管理器.top是一个动态显示过程,即可以通过用户按键来 ...