一、主节点安装

设置主机名
hostnamectl set-hostname master
hostnamectl set-hostname node01

修改hosts文件
vim /etc/hosts
192.168.1.91 master
192.168.1.92 node01

关闭防火墙
systemctl stop firewalld
systemctl disable firewalld

禁用SELINUX
setenforce 0
sed -i -re '/^\s*SELINUX=/s/^/#/' -e '$i\\SELINUX=disabled' /etc/selinux/config

关闭swap
swapoff -a
sed -i 's/.*swap.*/#&/' /etc/fstab

ipv6设置
cat <<EOF > /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
sysctl --system

安装docker
安装依赖
yum install yum-utils device-mapper-persistent-data lvm2 -y
下载repo文件
yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
安装docker
yum update && yum install docker-ce-18.06.2.ce

设置docker
cat > /etc/docker/daemon.json <<EOF
{
"exec-opts": ["native.cgroupdriver=systemd"],
"log-driver": "json-file",
"log-opts": {
"max-size": "100m"
},
"storage-driver": "overlay2",
"storage-opts": [
"overlay2.override_kernel_check=true"
]
}
EOF

systemctl daemon-reload
systemctl restart docker

安装kubeadm, kubelet and kubectl(所有节点都要安装)
修改k8s源
cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
enabled=1
gpgcheck=1
repo_gpgcheck=1
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

yum install -y kubelet-1.16.3 kubectl-1.16.3 kubeadm-1.16.3 --disableexcludes=kubernetes
systemctl enable --now kubelet

注:使用yum安装程序时,如提示如下xxx.rpm公钥尚未安装,使用 yum install xxx.rpm --nogpgcheck 命令格式跳过公钥检查,如下:
yum install -y kubelet-1.16.3 kubectl-1.16.3 kubeadm-1.16.3 --disableexcludes=kubernetes --nogpgcheck

设置本地仓库拉取镜像
vi /usr/lib/systemd/system/docker.service
添加 --insecure-registry 172.16.40.78:1180
ExecStart=/usr/bin/dockerd --insecure-registry 172.16.40.78:1180
systemctl daemon-reload
systemctl restart docker
登录docker仓库
docker login 172.16.40.78:1180
输入用户名和密码
拉取镜像
docker pull 172.16.40.78:1180/k8s/kube-apiserver:v1.16.3
docker pull 172.16.40.78:1180/k8s/kube-controller-manager:v1.16.3
docker pull 172.16.40.78:1180/k8s/kube-scheduler:v1.16.3
docker pull 172.16.40.78:1180/k8s/kube-proxy:v1.16.3
docker pull 172.16.40.78:1180/k8s/pause:3.1
docker pull 172.16.40.78:1180/k8s/etcd:3.3.15-0
docker pull 172.16.40.78:1180/k8s/coredns:1.6.2
docker pull 172.16.40.78:1180/k8s/flannel:v0.11.0-amd64
镜像重命名标签
docker tag 172.16.40.78:1180/k8s/kube-apiserver:v1.16.3 k8s.gcr.io/kube-apiserver:v1.16.3
docker tag 172.16.40.78:1180/k8s/kube-controller-manager:v1.16.3 k8s.gcr.io/kube-controller-manager:v1.16.3
docker tag 172.16.40.78:1180/k8s/kube-scheduler:v1.16.3 k8s.gcr.io/kube-scheduler:v1.16.3
docker tag 172.16.40.78:1180/k8s/kube-proxy:v1.16.3 k8s.gcr.io/kube-proxy:v1.16.3
docker tag 172.16.40.78:1180/k8s/pause:3.1 k8s.gcr.io/pause:3.1
docker tag 172.16.40.78:1180/k8s/etcd:3.3.15-0 k8s.gcr.io/etcd:3.3.15-0
docker tag 172.16.40.78:1180/k8s/coredns:1.6.2 k8s.gcr.io/coredns:1.6.2
docker tag 172.16.40.78:1180/k8s/flannel:v0.11.0-amd64 quay.io/coreos/flannel:v0.11.0-amd64

初始化集群 (只需要在Master上执行)
kubeadm init --pod-network-cidr=10.244.0.0/16

记录最后面的执行信息 如下:后续在worker节点加入集群时,在worker节点执行该命令
kubeadm join 192.168.1.91:6443 --token mv96do.5j4o789pww3w9b8t \
--discovery-token-ca-cert-hash sha256:15844ec4b9ce3a5659b07fd48b5d11f604d3b31539860584f63bdc933f016bd0

设置KUBECONFIG (所有节点都要配置)
注意:worker节点需要从主节点copy /etc/kubernetes/admin.conf文件
scp /etc/kubernetes/admin.conf root@node01:/etc/kubernetes/
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
export KUBECONFIG=$HOME/.kube/config

配置Pod网络插件flannel(只需要在Master上执行)
通过网站的flannel配置文件创建pod,如果失败,需要删除配置等网络恢复,重新创建。
创建命令
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/2140ac876ef134e0ed5af15c65e414cf26827915/Documentation/kube-flannel.yml

注意:上述文件下载不动的话,参考这个地址https://www.cnblogs.com/runnerjack/p/12880583.html ,然后将内容保存成kube-flannel.yml文件即可。
删除命令
kubectl delete -f https://raw.githubusercontent.com/coreos/flannel/2140ac876ef134e0ed5af15c65e414cf26827915/Documentation/kube-flannel.yml

执行命令 “kubectl get pods -n kube-system”查看coredns pod的状态,直到STATUS变成Running
NAME READY STATUS RESTARTS AGE
coredns-5644d7b6d9-dx6qm 1/1 Running 0 31m
coredns-5644d7b6d9-w8th9 1/1 Running 0 31m
etcd-master 1/1 Running 0 30m
kube-apiserver-master 1/1 Running 0 30m
kube-controller-manager-master 1/1 Running 0 29m
kube-flannel-ds-amd64-bm9xl 1/1 Running 0 54s
kube-proxy-2k5nz 1/1 Running 0 31m
kube-scheduler-master 1/1 Running 0 30m

查看集群信息
# 查看节点信息
kubectl get nodes
NAME STATUS ROLES AGE VERSION
master Ready master 35m v1.16.3

# 查看集群信息
kubectl cluster-info
Kubernetes master is running at https://192.168.1.91:6443
KubeDNS is running at https://192.168.1.91:6443/api/v1/namespaces/kube-system/services/kube-dns:dns/proxy

To further debug and diagnose cluster problems, use 'kubectl cluster-info dump'.

# 查看所有的 Pod 命令
kubectl get pods --all-namespaces

Node节点加入集群(仅在worker节点执行)
kubeadm join 192.168.1.91:6443 --token mv96do.5j4o789pww3w9b8t --discovery-token-ca-cert-hash sha256:15844ec4b9ce3a5659b07fd48b5d11f604d3b31539860584f63bdc933f016bd0

执行的提示信息:
This node has joined the cluster:
* Certificate signing request was sent to apiserver and a response was received.
* The Kubelet was informed of the new secure connection details.

Run 'kubectl get nodes' on the control-plane to see this node join the cluster.

节点加入成功后可以查看新的集群信息
# 查看节点信息
kubectl get nodes
# 查看集群信息
kubectl cluster-info

安装dashboard(可选)
# 安装dashboard
kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/master/src/deploy/recommended/kubernetes-dashboard.yaml

# 删除dashboard
kubectl -n kube-system delete $(kubectl -n kube-system get pod -o name | grep dashboard)

二、工作节点

设置主机名
hostnamectl set-hostname node02
hostnamectl set-hostname node03

修改hosts文件
vim /etc/hosts
192.168.1.91 master
192.168.1.92 node01
192.168.1.121 node02
192.168.1.122 node03

关闭防火墙
systemctl stop firewalld
systemctl disable firewalld

禁用SELINUX
setenforce 0
sed -i -re '/^\s*SELINUX=/s/^/#/' -e '$i\\SELINUX=disabled' /etc/selinux/config

关闭swap
swapoff -a
sed -i 's/.*swap.*/#&/' /etc/fstab

ipv6设置
cat <<EOF > /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
sysctl --system

安装docker
安装依赖
yum install yum-utils device-mapper-persistent-data lvm2 -y
下载repo文件
yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
安装docker
yum update && yum install docker-ce-18.06.2.ce

设置docker
cat > /etc/docker/daemon.json <<EOF
{
"exec-opts": ["native.cgroupdriver=systemd"],
"log-driver": "json-file",
"log-opts": {
"max-size": "100m"
},
"storage-driver": "overlay2",
"storage-opts": [
"overlay2.override_kernel_check=true"
]
}
EOF

设置本地仓库拉取镜像
vi /usr/lib/systemd/system/docker.service
添加 --insecure-registry 172.16.40.78:1180
ExecStart=/usr/bin/dockerd --insecure-registry 172.16.40.78:1180
systemctl daemon-reload
systemctl restart docker
登录docker仓库
docker login 172.16.40.78:1180
输入用户名和密码
拉取镜像
docker pull 172.16.40.78:1180/k8s/kube-proxy:v1.16.3
docker pull 172.16.40.78:1180/k8s/pause:3.1
docker pull 172.16.40.78:1180/k8s/etcd:3.3.15-0
docker pull 172.16.40.78:1180/k8s/coredns:1.6.2
docker pull 172.16.40.78:1180/k8s/flannel:v0.11.0-amd64
镜像重命名标签
docker tag 172.16.40.78:1180/k8s/kube-proxy:v1.16.3 k8s.gcr.io/kube-proxy:v1.16.3
docker tag 172.16.40.78:1180/k8s/pause:3.1 k8s.gcr.io/pause:3.1
docker tag 172.16.40.78:1180/k8s/etcd:3.3.15-0 k8s.gcr.io/etcd:3.3.15-0
docker tag 172.16.40.78:1180/k8s/coredns:1.6.2 k8s.gcr.io/coredns:1.6.2
docker tag 172.16.40.78:1180/k8s/flannel:v0.11.0-amd64 quay.io/coreos/flannel:v0.11.0-amd64

安装kubeadm, kubelet and kubectl(所有节点都要安装)
修改k8s源
cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
enabled=1
gpgcheck=1
repo_gpgcheck=1
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

yum install -y kubelet-1.16.3 kubectl-1.16.3 kubeadm-1.16.3 --disableexcludes=kubernetes
systemctl enable --now kubelet

注意:worker节点需要从主节点copy /etc/kubernetes/admin.conf文件
scp /etc/kubernetes/admin.conf root@node01:/etc/kubernetes/

Node节点加入集群(仅在worker节点执行)创建主节点token(kubeadm token create)
kubeadm join 192.168.1.91:6443 --token enwm6l.2hyqoedt4q4ztm18 --discovery-token-ca-cert-hash sha256:15844ec4b9ce3a5659b07fd48b5d11f604d3b31539860584f63bdc933f016bd0 -v=10

如果添加失败,添加参数-v=10 查看错误原因
kubeadm join 192.168.1.91:6443 --token enwm6l.2hyqoedt4q4ztm18 --discovery-token-ca-cert-hash sha256:15844ec4b9ce3a5659b07fd48b5d11f604d3b31539860584f63bdc933f016bd0 -v=10

删除节点 重新添加
主节点执行 kubectl delete node 节点名
重置工作节点 kubeadm reset

k8s手动安装的更多相关文章

  1. k8s手动安装-1

    1.组网master可以使用双网卡,一个外网网卡连接外网,并且做proxy server,一个host-only网卡和node连接. 新版vitualbox配置host-only需要在主机网络管理器中 ...

  2. [转帖]容器云之K8s自动化安装方式的选择

    容器云之K8s自动化安装方式的选择 时间 2016-12-05 19:10:53  极客头条 原文  http://geek.csdn.net/news/detail/127426 主题 Kubern ...

  3. Yii2 手动安装yii2-imagine插件

    由于网络的原因使用composer安装Yii框架,实在太过痛苦,所以这里干脆就手动安装yii-imagine的扩展. 首先下载yii2-image和Imagine扩展库,点击链接就可以从百度云下载上传 ...

  4. 将Apache手动安装成Windows的服务

    将Apache手动安装成Windows的服务 可以选择在安装Apache时自动将其安装为一个服务.如果选择"for all users",那么Apache将会被安装为服务. 如果选 ...

  5. python 利用 setup.py 手动安装django_chartit

    手动安装django_chartit库 1 下载压缩包 2 解压到python安装目录下,文件夹名为django_chartit,并检查文件夹下是否有setup.py文件 3 在cmd中进入djang ...

  6. Mac下手动安装Chromedriver.exe

    Mac OS X Yosemite 10.10.4下,ChromeDriver运行异常,需要手动安装chromedriver.exe Step 1: 打开https://sites.google.co ...

  7. windows下手动安装和配置xamarin

    安装xamarin xamarin官方给出了两种安装方式,自动安装和手动安装. 自动安装比较简单,到http://xamarin.com/download下载xamarininstaller.exe ...

  8. Xamarin 手动安装步骤+破解(最新版Xamarin V3)

    Create native iOS, Android, Mac and Windows apps in C#. 看到这句话,你就知道Xamarin是什么了,对于C#开发者,这样的标语还是会让你激动一下 ...

  9. WinServer2008 R2搭建TFS2013小结(无法连接Internet手动安装)

    不定时更新参考文档: TFS安装与管理 为本地管理配置本机模式报表服务器 (SSRS) 手里有文档还是掉进各种坑,这里把坑总结一下,方面以后填坑. 安装指导文档中搭建TFS2013用了两台服务器,把S ...

  10. 手动安装 atom 扩展包 packages

    由于某些原因, 我们下载 atom 扩展时发现速度特别慢, 或者根本无法下载, 那我们可以尝试手动安装 首先, 从 github 上下载(或其它地方) 扩展包, 解压 进入该文件夹, 找到 packa ...

随机推荐

  1. bootstrap-sweetalert

    官网地址:http://lipis.github.io/bootstrap-sweetalert/ 模板样式 // 删除书籍,甜甜的警告 $('.bookdel').click(function () ...

  2. 高通mm-camera平台 Camera bring up基本调试思路

    原文:https://www.cnblogs.com/thjfk/p/4086001.html 确定硬件 1.首先对照原理图,检查camera module的pin脚连接是否正确. 2.用示波器量Ca ...

  3. rsync 的使用

    背景 原文地址:Rsync参数说明及使用文档(给我自己看的) 一.前言 最近发现rsync挺好用的--不过参数有点多,所以这儿写一篇给自己以后要用的时候做个参考. 二.参数说明 这儿全是我翻资料连蒙带 ...

  4. IEC61850方案分享,基于全志、瑞芯微国产平台实现!

    什么是IEC61850协议? IEC61850是一种用于在电力自动化系统中进行数据交换和控制的通信协议.它定义了一种标准化的通信和数据模型,以支持设备和系统之间的数据交换和互操作性. IEC61850 ...

  5. 全国产!全志A40i+Logos FPGA核心板(4核ARM Cortex-A7)硬件说明

    硬件资源 SOM-TLA40iF核心板板载ARM.FPGA.ROM.RAM.晶振.电源.LED等硬件资源,并通过B2B连接方式引出IO.核心板所有器件(包括B2B连接器)均采用国产工业级方案,国产化率 ...

  6. Nuxt3 的生命周期和钩子函数(十)

    title: Nuxt3 的生命周期和钩子函数(十) date: 2024/6/30 updated: 2024/6/30 author: cmdragon excerpt: 摘要:本文详细介绍了Nu ...

  7. Vue 框架怎么实现对象和数组的监听?

    如果被问到 Vue 怎么实现数据双向绑定,大家肯定都会回答 通过 Object.defineProperty() 对数据进行劫持,但是 Object.defineProperty() 只能对属性进行数 ...

  8. yb课堂之订单列表接口开发 《十七》

    订单列表接口开发 VideoOrderController.java VideoOrderService.java VideoOrderServiceImpl.java VideoOrderMappe ...

  9. Solo 独立开发者社区

    Solo 独立开发者社区是一个致力于帮助独立开发者发展的社区平台.平台上聚集了大量的独立开发者,他们在这个平台上分享着自己的开发经验.心得和技巧,同时也可以从其他人的分享中获得启发和帮助. 这个社区提 ...

  10. 【SpringBoot】11 Web开发 Part2 模板引擎

    开发回顾: JavaWeb开发使用JSP技术,所有的页面文件必须是JSP,才能接受数据处理 JSP的好处是,数据交互方便,有JSTL补充 SpringBoot的区别: 我们最终的项目是一个jar包 内 ...