首页
Python
Java
IOS
Andorid
NodeJS
JavaScript
HTML5
k8s HPA扩容节点亲和性
2024-11-03
K8S调度之节点亲和性
Node Affinity Affinity 翻译成中文是"亲和性",它对应的是 Anti-Affinity,我们翻译成"互斥".这两个词比较形象,可以把 pod 选择 node 的过程类比成磁铁的吸引和互斥,不同的是除了简单的正负极之外,pod 和 node 的吸引和互斥是可以灵活配置的. Affinity的优点: 匹配有更多的逻辑组合,不只是字符串的完全相等 调度分成软策略(soft)和硬策略(hard),在软策略下,如果没有满足调度条件的节点,pod会忽略这条
K8S调度之pod亲和性
目录 Pod Affinity Pod亲和性调度 pod互斥性调度 Pod Affinity 通过<K8S调度之节点亲和性>,我们知道怎么在调度的时候让pod灵活的选择node,但有些时候我们希望调度能够考虑pod之间的关系,而不只是pod与node的关系.于是在kubernetes 1.4的时候引入了pod affinity. 为什么有这样的需求呢?举个例子,我们系统服务 A 和服务 B 尽量部署在同个主机.机房.城市,因为它们网络沟通比较多:再比如,我们系统数据服务 C 和数据服务 D 尽
7.k8s.调度器scheduler 亲和性、污点
#k8s. 调度器scheduler 亲和性.污点 默认调度过程:预选 Predicates (过滤节点) --> 优选 Priorities(优先级排序) --> 优先级最高节点 实际使用,根据需求控制Pod调度,需要用到如下: 指定节点.nodeAffinity(节点亲和性).podAffinity(pod 亲和性). podAntiAffinity(pod 反亲和性) #指定调度节点 # Pod.spec.nodeName 强制匹配,直接指定Node 节点,跳过 Scheduler 调度
Kubernetes K8S之固定节点nodeName和nodeSelector调度详解
Kubernetes K8S之固定节点nodeName和nodeSelector调度详解与示例 主机配置规划 服务器名称(hostname) 系统版本 配置 内网IP 外网IP(模拟) k8s-master CentOS7.7 2C/4G/20G 172.16.1.110 10.0.0.110 k8s-node01 CentOS7.7 2C/4G/20G 172.16.1.111 10.0.0.111 k8s-node02 CentOS7.7 2C/4G/20G 172.16.1.112 10.
k8s集群节点更换ip 或者 k8s集群添加新节点
1.需求情景:机房网络调整,突然要回收我k8s集群上一台node节点机器的ip,并调予新的ip到这台机器上,所以有了k8s集群节点更换ip一说:同时,k8s集群节点更换ip也相当于k8s集群添加新节点,他们的操作流程是一样的. 2.机器更换ip后发生的现象: (1)查看节点状态,kubectl get node ,还是原来的节点名称和Ready状态,但事实上它已经不工作了: (2)查看集群pods,运行在已更换ip node节点的pod已处于Terminating,已无法正常工作 3.修复nod
微服务探索之路04篇k8s增加子节点,metrics资源监控,ingress-nginx域名配置及https配置
1 k8s增加子节点 1.1 子节点服务器安装docker,使用脚本自动安装 curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyun 安装完之后设置docker守护进程配置vim /etc/docker/daemon.json,内容为 { "insecure-registries": ["http://127.0.0.1:8080"], "exec-opts": [&q
【JVM故障问题排查心得】「内存诊断系列」Docker容器经常被kill掉,k8s中该节点的pod也被驱赶,怎么分析?
背景介绍 最近的docker容器经常被kill掉,k8s中该节点的pod也被驱赶. 我有一个在主机中运行的Docker容器(也有在同一主机中运行的其他容器).该Docker容器中的应用程序将会计算数据和流式处理,这可能会消耗大量内存. 该容器会不时退出.我怀疑这是由于内存不足,但不是很确定.我需要找到根本原因的方法.那么有什么方法可以知道这个集装箱的死亡发生了什么? 容器层级判断检测 提到docker logs $container_id查看该应用程序的输出.这永远是我要检查的第一件事.接下来,
k8s系列---hpa扩容
centos-master:172.16.100.60 centos-minion:172.16.100.62 k8s,etcd,docker等都是采用yum装的,部署参考的k8s权威指南和一个视频,视频在百度网盘里,忘记具体步骤了,安装不难,关键在于第一次接触,改的文件记不住下次在写个安装的步骤吧 首先安装heapster 我安装的是1.2.0的版本 个人感觉只要几个yaml文件就行了,里面其他东西干嘛用的,没用到嘛 [root@centos-master influxdb]# pwd /u
K8s 集群节点在线率达到 99.9% 以上,扩容效率提升 50%,我们做了这 3 个深度改造
点击下载<不一样的 双11 技术:阿里巴巴经济体云原生实践> 本文节选自<不一样的 双11 技术:阿里巴巴经济体云原生实践>一书,点击上方图片即可下载! 作者 | 张振(守辰)阿里云云原生应用平台高级技术专家 导读:2019 年阿里巴巴核心系统 100% 以云原生方式上云,完美地支撑了 双11 大促.这次上云的姿势很不一般,不仅是拥抱了 Kubernetes,而且还以拥抱 Kubernetes 为契机进行了一系列对运维体系的深度改造. Kubernetes 作为云原生的最佳实践,已
k8s系列---Worker节点扩容
其他有关内容 安装:参考https://www.cnblogs.com/dribs/p/9082458.html 集群故障重置:参考https://www.cnblogs.com/dribs/p/10340609.html 1:master上查看token [root@k8s-m ~]# kubeadm token list 如果没有token信息,就重新生成一个,默认有效期1天 [root@k8s-m ~]# kubeadm token create 2:新增的node节点操作 内核参数调整
kubespray -- 快速部署高可用k8s集群 + 扩容节点 scale.yaml
主机 系统版本 配置 ip Mater.Node,ansible CentOS 7.2 4核8G 172.16.6.44 master,Node CentOS 7.2 4核8G 172.16.6.45 Mater.Node CentOS 7.
Taints和Tolerations联用,将pod部署到k8s的master节点
一般,k8s的master为了保持高性能,在这个主节点上只运行一些管理必须的POD. 如果我们限于资源,或是一些监控类的pod要部署到master节点呢? 昨天遇到这个问题,按网上通用的方法,未解决,于是仔细研究了一下, 后解决. 一般来说,“污点”和“忍受”是成对应用的.master节点上打一个污点taints,部署的yaml文件里声明容忍tolerations. 标准用法如下: ... nodeSelector: node-role.kubernetes.io/master: "true&q
k8s Pod 扩容和缩容
在生产环境下,在面临服务需要扩容的场景时,可以使用Deployment/RC的Scale机制来实现.Kubernetes支持对Pod的手动扩容和自动扩容. 手动扩容缩容 通过执行扩容命令,对某个deployment直接进行扩容: # kubectl scale deployment nginx-deployment --replicas=4 当要缩容,减少副本数量即可: # kubectl scale deployment nginx-deployment --replicas=2 自动扩容缩容
k8s, etcd 多节点集群部署问题排查记录
目录 文章目录 目录 部署环境 1. etcd 集群启动失败 解决 2. etcd 健康状态检查失败 解决 3. kube-apiserver 启动失败 解决 4. kubelet 启动失败 解决 5. Approved CSR 后获取 nodes 失败 解决 6. 访问 pod app 失败 解决 部署环境 双节点 IP 配置: # cat /etc/hosts 192.168.1.5 vmnote0 192.168.1.12 vmnote1 部署文档:https://jimmysong.io
第三章 k8s的node节点配置
一.修改主机名 hostnamectl set-hostname xxx 二.修改hosts文件vim /etc/hosts 三.将写好的hosts文件拷贝到其他节点 scp /etc/hosts root@k8s-node01:/etc/hosts 四.安装依赖包 yum install -y conntrack ntpdate ntp ipvsadm ipset jq iptables curl sysstat libseccomp wgetvimnet-tools git 五.设置防火墙为
利用容器逃逸实现远程登录k8s集群节点
某天, 某鱼说要吃瞄, 于是...... 李国宝:边缘计算k8s集群SuperEdge初体验 zhuanlan.zhihu.com 图标 照着上一篇文章来说,我这边边缘计算集群有一堆节点. 每个节点都在不同的网络环境下. 他们的共同点都是可以访问内网, 部分是某云学生主机, 部分是跑在家庭网络环境下的虚拟机, 甚至假设中还有一些是树莓派之类的机器. 所以他们另一个共同点是,基本都没有公网IP. 这样一来,我要实现远程登录到某些节点搞事的时候, 只有内网穿透这一条路子了. 使用frp进行内网穿
raspberrypi系统在加入k8s作为node节点时遇到的问题
新买的树莓派4b到货后就迫不及待的烧录上raspberrypi系统,将新派加入我的k8s集群,期间遇到了点小挫折,好歹也一个一个解决了: 一.kubelet版本不对导致无法加入k8s集群 在执行kubeadm join时,提示无法连接127.0.0.1:10248:去master节点上看了下这个端口对应的服务是kubelet,那就是kubelet无法启动,我手动强制启动也是失败的:后来查看了下master的kubelet版本,发现master的kubelet版本是v1.23.5:而我新树莓派上的
K8S部署超过节点的Pod
在阿里云上部署了一个K8S集群,一master, 两node: 然后执行 kubectl create -f tomcat.yml yaml如下: apiVersion: apps/v1 kind: Deployment metadata: name: tomcat-app spec: selector: matchLabels: name: tomcat replicas: 4 template: metadata: labels: name: tomcat spec: containers:
k8s HPA自动收缩
HPA自动收缩 autoscale 自动调整一个 Deployment, ReplicaSet, 或者 ReplicationController 的副本数量 #创建一个replicaset测试 [root@k8s-m ~]# cat my-replicaset.yaml apiVersion: apps/v1 kind: ReplicaSet metadata: name: myreplicaset namespace: default spec: replicas: 2 selector:
k8s 新加节点
拷贝原来的内容过去,删除 cd /opt/kubernetes/ssl/ 1. 删除 kubelet-crt key kube-proxy-key.pem 相关的这些key是,根据tooken验证接受请求后,主节点发送过来的. 2. 其他节点配置新家节点hostname [root@npChain004 ~/broseryaml]# kubectl exec -it net-test-5767cb94df-dhdpq -- /bin/shError from server: er
热门专题
DBGridEh 过滤多选出错
rocketmq 3.x 历史版本
编写2个接口interfacea和interfaceb
robot framework中boundary格式的如何写
常用@media自适应
keras 测试集recall_score写法
数组实例化有几种方式 java
linux中怎么批量跑jmeter
vs2019编辑类库的csproj文件
open read函数
WGS-84转GCJ-02的坐标纠偏
prettier 不换行 eslint 报错
plsql中Cv IN OUT
begin{spacing} 不能使用
django 中如何获取model中的choices
vmware opengl版本
md5 sha1 crc32哪个快
如何写脚本批量下载视频
VC 键盘钩子 代码
VS 中 qss放在什么位置