kubernetes kubeadm部署高可用集群
k8s kubeadm部署高可用集群
kubeadm是官方推出的部署工具,旨在降低kubernetes使用门槛与提高集群部署的便捷性. 同时越来越多的官方文档,围绕kubernetes容器化部署为环境, 所以容器化部署kubernetes已成为趋势.
本文主要内容: 基于kubeadm部署方式,实现kubernetes的高可用.
master部署
- 三台master节点上建立etcd集群
- 使用
vip进行kubeadm初始化master
1. 环境准备
| 节点 | 地址 |
|---|---|
| master1,etcd1 | 10.8.104.16 |
| master2,etcd2 | 10.8.37.18 |
| master3,etcd3 | 10.8.125.29 |
| node1 | 10.8.113.73 |
操作系统:centos 7..2
vip:10.8.78.31/16
2. 部署etcd集群
三台master节点上部署etcd分布式集群, 部署细节请自行百度.
etcd集群信息http://10.8.125.29:2379,http://10.8.104.16:2379,http://10.8.37.18:2379
3. 编译rpm包
yum install docker git -y
systemctl start docker
cd /data
git clone https://github.com/kubernetes/release.git
cd /data/release/rpm
./docker-build.sh
4. 安装kubeadm
cd /data/release/rpm/output/x86_64
yum localinstall *.rpm -y
systemctl enable docker && systemctl start docker
systemctl enable kubelet && systemctl start kubelet
5. 初始化master1
#添加vip
ip addr add 10.8.78.31/16 dev eth0
kubeadm init --api-advertise-addresses=10.8.78.31 --external-etcd-endpoints=http://10.8.125.29:2379,http://10.8.104.16:2379,http://10.8.37.18:2379
--api-advertise-addresses支持多个ip,但是会导致kubeadm join无法正常加入, 所以对外服务只配置为一个vip
6. 部署其他master
- 参照master1 安装kubeadm
- 拷贝master1 的/etc/kubernetes/并启动kubelet
scp -r 10.8.104.16:/etc/kubernetes/* /etc/kubernetes/
yum install docker -y
systemctl enable docker && systemctl start docker
systemctl enable kubelet && systemctl start kubelet
kube-controller-manager ``kube-scheduler通过--leader-elect实现了分布式锁. 所以三个master节点可以正常运行.
组件优化
采用
daemonsets方式,实现核心组件实现高可用,
1. dns组件
方案一
#1. 在所有master部署dns
kubectl scale deploy/kube-dns --replicas=3 -n kube-system
方案二
#1.删除自带dns组件
kubectl delete deploy/kube-dns svc/kube-dns -n kube-system
#2.下载最新的dns组件
cd /data
wget https://raw.githubusercontent.com/kubernetes/kubernetes/master/cluster/addons/dns/kubedns-controller.yaml.base
wget https://raw.githubusercontent.com/kubernetes/kubernetes/master/cluster/addons/dns/kubedns-svc.yaml.base
#3.修改配置
mv kubedns-controller.yaml.base kubedns-daemonsets.yaml
mv kubedns-svc.yaml.base kubedns-svc.yaml
sed -i 's/__PILLAR__DNS__SERVER__/10.96.0.10/g' kubedns-svc.yaml
sed -i 's/__PILLAR__DNS__DOMAIN__/cluster.local/g' kubedns-daemonsets.yaml
把Deployment类型改为DaemonSet,并加上master nodeSelector
nodeSelector:
kubeadm.alpha.kubernetes.io/role: master
kubectl apply -f kubedns-svc.yaml -f kubedns-daemonsets.yaml
2. 网络组件
基于稳定性与兼容性考虑, 采用
Canal作为网络组件
wget https://raw.githubusercontent.com/tigera/canal/master/k8s-install/kubeadm/canal.yaml
#1.删掉canal.yaml中关于etcd的部署代码
#2.修改`etcd_endpoints`为已部署的etcd集群`
kubectl apply -f canal.yaml
etcd_endpoints: "http://10.8.125.29:2379,http://10.8.104.16:2379,http://10.8.37.18:2379"
canal启动完毕后, dns组件会处于正常状态
3. kube-discovery
kube-discovery 主要负责集群密钥的分发,如果这个组件不正常, 将无法正常新增节点
kubeadm join
方案一
kubectl scale deploy/kube-discovery --replicas=3 -n kube-system
方案二
#1. 导出kube-discovery配置
kubectl get deploy/kube-discovery -n kube-system -o yaml > /data/kube-discovery.yaml
#2. 把Deployment类型改为DaemonSet,并加上master nodeSelector
#3. 删掉自带kube-discovery
kubectl delete deploy/kube-discovery svc/kube-dns -n kube-system
#4. 部署kube-discovery
kubectl apply -f kube-discovery.yaml
Deployment转为DaemonSet, 如果报错,请根据报错内容删减配置. 主要是去掉状态配置与
replicas和strategy
4. label node
给所有master节点打上
role=master标签, 以使DaemonSet类型的组件自动部署到所有master节点
kubectl label node 10-8-125-29 kubeadm.alpha.kubernetes.io/role=master
kubectl label node 10-8-37-18 kubeadm.alpha.kubernetes.io/role=master
vip 漂移
到目前为止,三个master节点 相互独立运行,互补干扰.
kube-apiserver作为核心入口, 可以使用keepalived 实现高可用,kubeadm join暂时不支持负载均衡的方式
1. keepalived
yum install -y keepalived
/etc/keepalived/keepalived.conf
global_defs {
router_id LVS_k8s
}
vrrp_script CheckK8sMaster {
script "curl -k https://10.8.104.16:6443"
interval 3
timeout 9
fall 2
rise 2
}
vrrp_instance VI_1 {
state MASTER
interface eth0
virtual_router_id 61
priority 115
advert_int 1
mcast_src_ip 10.8.104.16
nopreempt
authentication {
auth_type PASS
auth_pass sqP05dQgMSlzrxHj
}
unicast_peer {
#10.8.104.16
10.8.37.18
10.8.125.29
}
virtual_ipaddress {
10.8.78.31/16
}
track_script {
CheckK8sMaster
}
}
systemctl enable keepalived
systemctl restart keepalived
keepalived模式为
主-从-从, 拷贝配置到其他master节点,并做修改:
curl -k https://10.8.104.16:6443检查本机kube-apiserver是否正常运行state MASTER另外两个节点为state BACKUPpriority 115逐次降低优先级,- 修改相应的 ip
systemctl enable keepalived;systemctl restart keepalived
验证
1. 加入节点
cd /data/release/rpm/output/x86_64
yum localinstall *.rpm -y
systemctl enable docker && systemctl start docker
systemctl enable kubelet && systemctl start kubelet
kubeadm join --token=eb6a6d.d3e65ed6e64a5bc6 10.8.78.31
kubectl get node
NAME STATUS AGE
10-8-104-16 Ready,master 9h
10-8-113-73 Ready 8h
10-8-125-29 Ready,master 9h
10-8-37-18 Ready,master 9h
2. 验证master宕机影响
#查看当前vip所在的节点
ip a
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1454 qdisc pfifo_fast state UP qlen 1000
link/ether 52:54:00:bf:a6:d4 brd ff:ff:ff:ff:ff:ff
inet 10.8.37.18/16 brd 10.8.255.255 scope global eth0
valid_lft forever preferred_lft forever
inet 10.8.78.31/16 scope global secondary eth0
valid_lft forever preferred_lft forever
修改节点dns服务器
/etc/resolv.conf
search default.svc.cluster.local svc.cluster.local cluster.local
options timeout:1 attempts:1 ndots:5
nameserver 10.96.0.10
nameserver 10.8.255.1
nameserver 10.8.255.2
nameserver 114.114.114.114
开三个node节点的命令窗口,分别执行以下命令.
#验证vip漂移的网络影响
ping 10.8.78.31
#验证kube-apiserver故障影响
while true; do sleep 1; curl -k https://10.8.78.31:6443; done
#验证dns解析影响
while true; do sleep 1; nslookup kubernetes.default.svc.cluster.local; done
关闭master
10.8.37.18机器
64 bytes from 10.8.78.31: icmp_seq=61 ttl=64 time=0.192 ms
From 10.8.104.16 icmp_seq=62 Time to live exceeded
64 bytes from 10.8.78.31: icmp_seq=64 ttl=64 time=0.164 ms
64 bytes from 10.8.78.31: icmp_seq=65 ttl=64 time=0.139 ms
Unauthorized
curl: (7) Failed connect to 10.8.78.31:6443; No route to host
curl: (7) Failed connect to 10.8.78.31:6443; No route to host
Unauthorized
Unauthorized
** server can't find kubernetes.default.svc.cluster.local: NXDOMAIN
Server: 10.8.255.1
Address: 10.8.255.1#53
** server can't find kubernetes.default.svc.cluster.local: NXDOMAIN
Server: 10.96.0.10
Address: 10.96.0.10#53
粗略估算, 影响kube-apiserver为5秒, 影响dns解析服务为10秒
[root@10-8-104-16 data]#kubectl get node
NAME STATUS AGE
10-8-104-16 Ready,master 9h
10-8-113-73 Ready 9h
10-8-125-29 Ready,master 9h
10-8-37-18 NotReady,master 9h
[root@10-8-104-16 data]# kubectl get all -n kube-system
NAME READY STATUS RESTARTS AGE
po/calico-policy-controller-fxjzw 1/1 Running 0 4h
po/canal-node-2jcz7 3/3 Running 3 9h
po/canal-node-3gnk3 3/3 Running 3 9h
po/canal-node-5s2br 3/3 Running 0 9h
po/canal-node-l1c9w 3/3 NodeLost 6 9h
po/dummy-2088944543-7hmh5 1/1 Running 0 3h
po/kube-apiserver-10-8-104-16 1/1 Running 3 3h
po/kube-apiserver-10-8-125-29 1/1 Running 2 4h
po/kube-apiserver-10-8-37-18 1/1 Unknown 4 3h
po/kube-controller-manager-10-8-104-16 1/1 Running 6 3h
po/kube-controller-manager-10-8-125-29 1/1 Running 6 4h
po/kube-controller-manager-10-8-37-18 1/1 Unknown 5 3h
po/kube-discovery-4w20c 1/1 NodeLost 2 8h
po/kube-discovery-4wcrw 1/1 Running 1 8h
po/kube-discovery-tnfs4 1/1 Running 1 8h
po/kube-dns-8pf48 4/4 Running 4 9h
po/kube-dns-cq4m5 4/4 NodeLost 8 9h
po/kube-dns-w8nq1 4/4 Running 4 9h
po/kube-proxy-4bpt5 1/1 Running 1 9h
po/kube-proxy-blxhl 1/1 Running 0 9h
po/kube-proxy-dc9dz 1/1 NodeLost 2 9h
po/kube-proxy-z3q0n 1/1 Running 1 9h
po/kube-scheduler-10-8-104-16 1/1 Running 8 3h
po/kube-scheduler-10-8-125-29 1/1 Running 7 4h
po/kube-scheduler-10-8-37-18 1/1 Unknown 7 3h
NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE
svc/kube-dns 10.96.0.10 <none> 53/UDP,53/TCP 9h
NAME DESIRED SUCCESSFUL AGE
jobs/configure-canal 1 1 9h
NAME DESIRED CURRENT READY AGE
rs/calico-policy-controller 1 1 1 9h
rs/dummy-2088944543 1 1 1 9h
以下为参考配置
kubernetes kubeadm部署高可用集群的更多相关文章
- kubeadm部署高可用集群Kubernetes 1.14.1版本
Kubernetes高可用集群部署 部署架构: Master 组件: kube-apiserver Kubernetes API,集群的统一入口,各组件协调者,以HTTP API提供接口服务,所有对象 ...
- Kubernetes实战:高可用集群的搭建和部署
摘要:官方只提到了一句"使用负载均衡器将 apiserver 暴露给工作节点",而这恰恰是部署过程中需要解决的重点问题. 本文分享自华为云社区<Kubernetes 高可用集 ...
- 容器云平台No.2~kubeadm创建高可用集群v1.19.1
通过kubernetes构建容器云平台第二篇,最近刚好官方发布了V1.19.0,本文就以最新版来介绍通过kubeadm安装高可用的kubernetes集群. 市面上安装k8s的工具很多,但是用于学习的 ...
- Mysql分布式部署高可用集群方案
HAproxy+Mycat +MySQL主从集群高可用方案 1. HAproxy高可用方案: haproxy+keepalived,利用keepalived的VIP浮动能力,(多台ha ...
- 使用kubeadm 搭建高可用集群 多master
很快很简单 只要三分钟就能看完 三台服务器 k8s-vip 负载均衡器 k8s-master1 主节点一 k8s-master2 主节点一 官方文档 首先搭建负载均衡器 用的Haproxy yum ...
- 用kubeadm 搭建 高可用集群问题记录和复盘整个过程 - 通过journalctl -u kubelet.service命令来查看kubelet服务的日志
1.根据 https://github.com/cookeem/kubeadm-ha/blob/master/README_CN.md 去搭建ha集群,遇到几个问题: runtime networ ...
- mysql-mmm 部署高可用集群
集群的部署(mysql-mmm + 主从同步) 什么是集群? 多台服务器提供相同的服务 集群的好处? 节省成本. 配置集群? 准备环境:准备4台数据库服务器 准备服务器,能够ping 4 台数据库服务 ...
- 使用Ansible部署etcd 3.2高可用集群
之前写过一篇手动搭建etcd 3.1集群的文章<etcd 3.1 高可用集群搭建>,最近要初始化一套新的环境,考虑用ansible自动化部署整套环境, 先从部署etcd 3.2集群开始. ...
- kubeadm使用外部etcd部署kubernetes v1.17.3 高可用集群
文章转载自:https://mp.weixin.qq.com/s?__biz=MzI1MDgwNzQ1MQ==&mid=2247483891&idx=1&sn=17dcd7cd ...
随机推荐
- 06MySQL数据库入门
1.数据库的概念 数据库是保存数据的仓库,可以方便的把数据放进去,并且把数据根据各种需求取出来. 数据库管理系统(Database Management System,DBMS)是对数据库进行管理(增 ...
- 初涉JavaScript模式 (1) : 简介
什么是模式? 广义上的模式是指 :在物体或事件上,产生的一种规律变化与自我重复的样式与过程.在模式之中,某些固定的元素不断以可预测的方式周期性重现.最基本而常见的模式,称为密铺,具备重复性以及周期性两 ...
- request 报错The remote server returned an error: (415) Unsupported Media Type.
开发时遇到个问题,程序访问数据库数据,给服务器发送请求时,老是报错,返回的错误页面是: HTTP Status 415 - Unsupported Media Type type Status rep ...
- Bootstrap_Javascript_弹窗
一. 结构分析 Bootstrap框架中的模态弹出框,分别运用了“modal”.“modal-dialog”和“modal-content”样式,而弹出窗真正的内容都放置在“modal-content ...
- VC++ 列表控件的使用方法
列表控件可以看作是功能增强的ListBox,它提供了四种风格,而且可以同时显示一列的多中属性值.MFC中使用CListCtrl类来封装列表控件的各种操作. 通过调用BOOL Create( DWORD ...
- PHP Cookie学习
<?php /* Cookie在计算机中保存的格式 用户名@网站地址[数字].txt Cookie在文件夹下,每个Cookie文件都是一个简单而又普通的文件件而不是程序,Cookie中的内容大多 ...
- Apache:To Config The Vhost of Django Project
It is not a good idea to use dev server in Production Environment. Apache or Nginx are good choice.B ...
- 嵌套JSON 取出name与value
好久不用都忘了 mark下 $.each( { name: "John", lang: "JS" }, function(i, n){ alert( &qu ...
- bzoj1127: [POI2008]KUP
Description 给一个n*n的地图,每个格子有一个价格,找一个矩形区域,使其价格总和位于[k,2k] Input 输入k n(n<2000)和一个n*n的地图 Output 输出矩形的左 ...
- 物联网操作系统 - Zephyr
What is Zephyr? Zephyr Project is a small, scalable real-time operating system for use on resource-c ...