k8s每个节点安装containerd。

  containerd安装参考《containerd安装博文》:https://www.cnblogs.com/punchlinux/p/16496094.html

containerd配置

  修改containerd的config.toml配置文件,修改k8s的镜像初始化pause底层网络镜像的下载地址

root@master:~# vim /etc/containerd/config.toml
sandbox_image = "registry.aliyuncs.com/google_containers/pause:3.7"

  

  再一次重启每个节点的containerd

systemctl restart containerd

  每个节点保持时间同步一致,安装chrony。检查时间一致性

chronyc sourcs -V
date

安装kubeadm环境

  配置软件仓库

apt-get update && apt-get install -y apt-transport-https
curl https://mirrors.aliyun.com/kubernetes/apt/doc/apt-key.gpg | apt-key add -
cat <<EOF >/etc/apt/sources.list.d/kubernetes.list
deb https://mirrors.aliyun.com/kubernetes/apt/ kubernetes-xenial main
EOF

  更新软件仓库,并检查源更新

apt-get update

  最新的版本则是1.24.3

  所有k8s节点都安装kubeadm、kubeadm和kubectl

root@master:~# apt install  kubeadm=1.24.3-00 kubectl=1.24.3-00 kubelet=1.24.3-00

  查看k8s初始化所需的镜像

root@master:~# kubeadm config images list --kubernetes-version v1.24.3

  编写一个shell脚本,修改官方镜像地址为阿里云镜像地址

  -n k8s.io则指定k8s 的namespace下载镜像

root@master:~# vim imagedown.sh
nerdctl -n k8s.io pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-apiserver:v1.24.3
nerdctl -n k8s.io pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-controller-manager:v1.24.3
nerdctl -n k8s.io pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-scheduler:v1.24.3
nerdctl -n k8s.io pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy:v1.24.3
nerdctl -n k8s.io pull registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.7
nerdctl -n k8s.io pull registry.cn-hangzhou.aliyuncs.com/google_containers/etcd:3.5.3-0

  所有k8s节点执行脚本,下载镜像

初始化k8s集群

  每台k8s节点设置加载模块,内核参数调优

root@master:~# vim /etc/modules-load.d/modules.conf
ip_vs
br_netfilter root@master:~# modprobe ip_vs
root@master:~# modprobe br_netfilter

  内核优化

root@master:~# cat /etc/sysctl.conf
net.ipv4.ip_forward=1
vm.max_map_count=262144
kernel.pid_max=4194303
fs.file-max=1000000
net.ipv4.tcp_max_tw_buckets=6000
net.netfilter.nf_conntrack_max=2097152 net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
vm.swappiness=0 root@master:~# sysctl -p

  master执行初始化集群

root@master:~# kubeadm init --apiserver-advertise-address=192.168.100.10 \
--apiserver-bind-port=6443 \
--kubernetes-version=v1.24.3 \
--pod-network-cidr=10.100.0.0/16 \
--service-cidr=10.200.0.0/16 \
--service-dns-domain=cluster.local \
--image-repository=registry.cn-hangzhou.aliyuncs.com/google_containers \
--ignore-preflight-errors=swap

  选项解释:

--apiserver-advertise-address  api-server地址也就是master节点地址

--apiserver-bind-port  api-server服务端口号

--kubernetes-version  k8s版本号

--pod-network-cidr  pod网络的地址建议16位或者8位地址

--service-cidr  svc网络地址建议16位或者8位地址与pod网络区别开来

--service-dns-domain=cluster.local  集群dns域名地址,默认为cluster.local

--image-repository  k8s镜像下载地址

--ignore-preflight-errors=swap  忽略初始化错位,如果开启了swap,可以忽略这个错误

  初始化完成

  kubectl凭据配置

  kubectl默认使用~/.kube/config文件中凭据信息管理kubernetes。

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config root@master:~# kubectl get nodes
NAME STATUS ROLES AGE VERSION
master Ready control-plane 19m v1.24.3

  如果环境变量KUBECONFIG存在,则优先使用境变量KUBECONFIG设置的值。

root@master:~# mv .kube/config .
export KUBECONFIG=/root/config
root@master:~# kubectl get nodes NAME STATUS ROLES AGE VERSION
master NotReady control-plane,master 102s v1.24.3

  等网络配置完成后,STATUS状态由NotReady变更为Ready

  还可以通过选项--kubeconfig=''明确指定凭据文件位置。 

root@master:~# kubectl get nodes --kubeconfig /root/config

  

  kubernetes对凭据文件名没有要求

root@master:~# mv config kube.conf
root@master:~# kubectl get nodes --kubeconfig kube.conf

  

配置网络

  这里采用calico网络。

  官方地址:http://projectcalico.org 或者 https://www.tigera.io/project-calico/

  产品文档:https://projectcalico.docs.tigera.io/about/about-calico

  calico项目下载地址:

  https://projectcalico.docs.tigera.io/getting-started/kubernetes/installation/config-options

  下载calico网络插件yaml并修改pod网络地址,此地址为初始化集群指定的pod网络地址段

root@master:~# curl https://projectcalico.docs.tigera.io/manifests/calico-etcd.yaml -O
root@master:~# vim calico-etcd.yaml

root@master:~# kubectl apply -f calico-etcd.yaml

  

   安装calico后,立即创建pod,由于工作节点还未加入到集群,所以calico网络还处于pending状态

节点加入集群

如果master节点初始化集群时终端输出的加入集群命令丢失,可以使用以下命令重新获取:

root@master:~# kubeadm token create --print-join-command

  

  node节点执行加入集群

  获取节点状态

  

  nerdctl 查看k8s的namespace下运行的容器

root@master:~# nerdctl -n k8s.io container ls -a

  

  等待一段时间后,查看pod运行状态为running则部署完成

root@master:~# kubectl get pods -A -o wid

  

  查看节点状态

  

  验证k8s正常提供服务:

  部署一个名为web的deployment并在宿主机可以访问:

root@master:~# kubectl create deployment web --image nginx:latest --replicas 2 --dry-run=client -o yaml > web.yaml

  修改一下镜像拉去规则imagePullPolicy: IfNotPresent

root@master:~# cat web.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
creationTimestamp: null
labels:
app: web
name: web
spec:
replicas: 2
selector:
matchLabels:
app: web
template:
metadata:
labels:
app: web
spec:
containers:
- image: nginx:latest
name: nginx
imagePullPolicy: IfNotPresent

  创建deployment

root@master:~# kubectl apply -f web.yaml

  查看pods

  创建service暴露容器端口

root@master:~# kubectl expose deployment web --target-port 80 --port 80 --type NodePort

  

  

  查看service

root@master:~# kubectl get service

  

  宿主机依次访问每个节点的32316

  访问master:

    

  访问node01

  访问node02

其他k8s运维小技巧

 kubectl命令补全

root@master:~# kubectl completion bash > /etc/bash_completion.d/kubectl
root@master:~# kubeadm completion bash > /etc/bash_completion.d/kubeadm
root@master:~# source /etc/bash_completion.d/kubectl
root@master:~# source /etc/bash_completion.d/kubeadm

   

 kubectl edit 高亮显示

[root@master ~]# vim .bashrc
[root@master ~]# export EDITOR=vim
[root@master ~]# source /root/.bashrc

以上就是关于Kubernetes v1.24版本的安装。如果对你有帮助或有建议疑问可以评论区留言!

Kubernetes v1.24 基于containerd部署的更多相关文章

  1. Kubeadm搭建高可用(k8s)Kubernetes v1.24.0集群

    文章转载自:https://i4t.com/5451.html 背景 Kubernetes 1.24新特性 从kubelet中移除dockershim,自1.20版本被弃用之后,dockershim组 ...

  2. 基于Kubernetes v1.24.0的集群搭建(三)

    1 使用kubeadm部署Kubernetes 如无特殊说明,以下操作可以在所有节点上进行. 1.1 首先我们需要配置一下阿里源 cat <<EOF > /etc/yum.repos ...

  3. 基于Kubernetes v1.24.0的集群搭建(二)

    上一篇文章主要是介绍了,每台虚拟机的环境配置.接下来我们开始有关K8S的相关部署. 另外补充一下上一篇文章中的K8S的change​log链接: https://github.com/kubernet ...

  4. 基于Kubernetes v1.24.0的集群搭建(一)

    一.写在前面 K8S 1.24作为一个很重要的版本更新,它为我们提供了很多重要功能.该版本涉及46项增强功能:其中14项已升级为稳定版,15项进入beta阶段,13项则刚刚进入alpha阶段.此外,另 ...

  5. Ubuntu 18.04 环境下 kubernetes v1.16.2 单机部署说明

    一.安装环境 本次部署使用阿里云ECS 操作系统: Ubuntu  18.04 64位 实例规格: ecs.c6.large 2U4G 二.kubernetes 版本 k8s.gcr.io/kube- ...

  6. Kubernetes入门(一)——Kubernetes v1.18.5 安装部署

    Kubernetes的安装有两种方式:一是使用各个厂商封装的Kubernetes发行版,优点是可以一键安装部署,操作简单,缺点也很明显,若安装过程中某一步骤出现问题,很难定位处理:二是使用官方提供的k ...

  7. 企业运维实践-丢弃手中的 docker build , 使用Kaniko直接在Kubernetes集群或Containerd环境中快速进行构建推送容器镜像

    关注「WeiyiGeek」公众号 设为「特别关注」每天带你玩转网络安全运维.应用开发.物联网IOT学习! 希望各位看友[关注.点赞.评论.收藏.投币],助力每一个梦想. 本章目录 目录 首发地址: h ...

  8. 基于Containerd安装部署高可用Kubernetes集群

    转载自:https://blog.weiyigeek.top/2021/7-30-623.html 简述 Kubernetes(后续简称k8s)是 Google(2014年6月) 开源的一个容器编排引 ...

  9. 基于docker和cri-dockerd部署kubernetes v1.25.3

    基于docker和cri-dockerd部署kubernetes v1.25.3 1.环境准备 1-1.主机清单 主机名 IP地址 系统版本 k8s-master01 k8s-master01.wan ...

随机推荐

  1. 建设Kubernetes生产环境的16条建议

    点击上方"开源Linux",选择"设为星标" 回复"学习"获取独家整理的学习资料! Kubernetes是用于构建高度可扩展系统的强大工具. ...

  2. 项目文章|DNA(羟)甲基化研究揭示铁离子依赖表观调控促进狼疮致病性T细胞分化|易基因

    易基因(羟)甲基化DNA免疫共沉淀测序(h)MeDIP-seq研究成果见刊<Journal of Clinical Investigation> 2022年5月2日,中南大学湘雅二医院赵明 ...

  3. APP应用前端开发

    1.开发手机APP前端要重视meta标签的编写: 2.注意HTML5标签在前端开发中的使用: 3.前端制作要舍弃CSS float属性(可flex布局),用绝对定位不利于页面布局的扩展: 4.APP前 ...

  4. dpkg-DEB包管理器

    dpkg是Deb系列发行版操作系统下.deb软件包管理器. 语法 dpkg [option] [package] 选项 -i 安装Deb软件包. -r 删除Deb软件包. -P 删除Deb软件包的同时 ...

  5. java 5种IO模型

    每日一句 人的痛苦会把自己折磨到多深呢? 每日一句 You cannot swim for new horizons until you have courage to lose sight of t ...

  6. Python模块Ⅰ

    Python模块Ⅰ part1 模块的定义/取别名 自定义模块 什么是模块:模块的本质就是.py文件,封装语句的最小单位 模块中出现的变量,for循环,if结构,函数定义...称为模块成员 模块的运行 ...

  7. Redis(1)- Redis数据库的安装和配置

    1.Redis安装 1.1.Linux环境安装Redis step-1:下载Redis 进入官网找到下载地址 https://redis.io/download wget https://github ...

  8. ptorch常用代码梯度篇(梯度裁剪、梯度累积、冻结预训练层等)

    梯度裁剪(Gradient Clipping) 在训练比较深或者循环神经网络模型的过程中,我们有可能发生梯度爆炸的情况,这样会导致我们模型训练无法收敛. 我们可以采取一个简单的策略来避免梯度的爆炸,那 ...

  9. Python 生成图片验证码

    验证码图片生成 #!/usr/bin/env python # -*- coding: utf-8 -*- # refer to `https://bitbucket.org/akorn/wheezy ...

  10. 如何用HMS Core位置和地图服务实现附近地点路径规划功能

    日常出行中,路径规划是很重要的部分.用户想要去往某个地点,获取到该地点的所有路径,再根据预估出行时间自行选择合适的路线,极大方便出行.平时生活中也存在大量使用场景,在出行类App中,根据乘客的目的地可 ...