在 192.168.0.1 app 用户下执行
1)程序准备
tar zxvf kubernetes-server-linux-amd64.tar.gz
mv kubernetes/server/bin/{kube-apiserver,kube-scheduler,kube-controller-
manager,kubectl} kubernetes/bin
2) 拷贝 CA 证书
cp *pem kubernetes/ssl/
3)创建 TLS Bootstrapping Token
head -c 16 /dev/urandom | od -An -t x | tr -d ' '
2366a641f656a0a025abb4aabda4511b
vim /data/projects/common/kubernetes/cfg/token.csv(填入上面生成的数字)
2366a641f656a0a025abb4aabda4511b,kubelet-bootstrap,10001,"system:kubelet-bootstrap"
4) apiserver 服务配置
a.修改配置
kubernetes/cfg/kube-apiserver

#!/bin/bash
ETCD_HOME=etcd
ETCD01_IP=192.168.0.1
ETCD02_IP=192.168.0.2
ETCD03_IP=192.168.0.3
KUBE_HOME=kubernetes
CLUSTER_IP="10.1.0.0/24"
KUBE_API_ARGS="--logtostderr=true \
--v=4 \
--etcd-servers=https://$ETCD01_IP:2379,https://$ETCD02_IP:2379,https://$ETCD03_IP:2379 \
--bind-address=0.0.0.0 \
--secure-port=6443 \\
--insecure-bind-address=0.0.0.0 \
--insecure-port=8080 \
--advertise-address=$ETCD_IP \
--allow-privileged=true \
--service-cluster-ip-range=$CLUSTER_IP \
--admission-control=NamespaceLifecycle,LimitRanger,SecurityContextDeny,ServiceAccount,ResourceQuota,NodeRestriction \
--authorization-mode=RBAC,Node \
--enable-bootstrap-token-auth \
--token-auth-file=$KUBE_HOME/cfg/token.csv \
--service-node-port-range=30000-50000 \
--tls-cert-file=$KUBE_HOME/ssl/server.pem \
--tls-private-key-file=$KUBE_HOME/ssl/server-key.pem \
--client-ca-file=$KUBE_HOME/ssl/ca.pem \
--service-account-key-file=$KUBE_HOME/ssl/ca-key.pem \
--etcd-cafile=$ETCD_HOME/ssl/ca.pem \
--etcd-certfile=$ETCD_HOME/ssl/server.pem \
--etcd-keyfile=$ETCD_HOME/ssl/server-key.pem"

b.开启与停止服务
#开启服务

#!/bin/bash
export KUBE_HOME=kubernetes
source $KUBE_HOME/cfg/kube-apiserver
nohup $KUBE_HOME/bin/kube-apiserver $KUBE_API_ARGS &

#停止服务

#!/bin/bash
kill -9 ` ps -ef | grep kube-apiserver | grep -v grep | awk '{print $2}'`

5)scheduler 服务配置
kubernetes/kube-scheduler

#!/bin/bash
KUBE_IP=192.168.0.1
KUBE_SCHEDULER_ARGS="--address=127.0.0.1 --logtostderr=true --v=4 --master=$KUBE_IP:8080 --leader-elect"

b.开启与停止服务
#开启服务

#!/bin/bash
KUBE_HOME=kubernetes
source $KUBE_HOME/cfg/kube-scheduler
nohup $KUBE_HOME/bin/kube-scheduler $KUBE_SCHEDULER_ARGS &

#停止服务

#!/bin/bash
kill -9 ` ps -ef | grep kube-scheduler | grep -v grep | awk '{print $2}'`

6)controller-manager 服务配置
kubernetes/kube-controller-manager

#!/bin/bash
KUBE_HOME=/data/projects/common/kubernetes
KUBE_IP=192.168.0.1
CLUSTER_IP="10.1.0.0/24" KUBE_CONTROLLER_MANAGER_ARGS="--logtostderr=true \
--v=4 \
--master=$KUBE_IP:8080 \
--leader-elect=true \
--address=127.0.0.1 \
--service-cluster-ip-range=$CLUSTER_IP \
--cluster-name=kubernetes \
--cluster-signing-cert-file=$KUBE_HOME/ssl/ca.pem \
--cluster-signing-key-file=$KUBE_HOME/ssl/ca-key.pem \
--root-ca-file=$KUBE_HOME/ssl/ca.pem \
--service-account-private-key-file=$KUBE_HOME/ssl/ca-key.pem"

b.开启与停止服务
#开启服务

#!/bin/bash
KUBE_HOME=kubernetes
source $KUBE_HOME/cfg/kube-controller-manager
nohup $KUBE_HOME/bin/kube-controller-manager $KUBE_CONTROLLER_MANAGER_ARGS &

#停止服务

#!/bin/bash
kill -9 ` ps -ef | grep kube-controller-manager | grep -v grep | awk '{print $2}'`

7)验证组件
kubernetes/bin/kubectl get cs

k8s记录-master组件部署(八)的更多相关文章

  1. k8s记录-node组件部署(十)

    1)CA 证书配置登录 192.168.0.1 app 用户下cd ssl/kubernetes#注意修改 KUBE_HOME,BOOTSTRAP_TOKEN #与 3.5 3)token 一致,KU ...

  2. k8s记录-kubeam方式部署k8s

    参考:https://blog.csdn.net/networken/article/details/84991940 # k8s工具部署方案 # 1.集群规划 | **服务器** | || ---- ...

  3. K8s二进制部署单节点 master组件 node组件 ——头悬梁

    K8s二进制部署单节点   master组件 node组件   --头悬梁 1.master组件部署 2.node   组件部署 k8s集群搭建: etcd集群 flannel网络插件 搭建maste ...

  4. Kubeadm部署k8s单点master

    Kubeadm部署k8s单点master 1.环境准备: 主机名 IP 说明 宿主机系统 master 10.0.0.17 Kubernetes集群的master节点 CentOS 7.9 node1 ...

  5. Taints和Tolerations联用,将pod部署到k8s的master节点

    一般,k8s的master为了保持高性能,在这个主节点上只运行一些管理必须的POD. 如果我们限于资源,或是一些监控类的pod要部署到master节点呢? 昨天遇到这个问题,按网上通用的方法,未解决, ...

  6. 使用Kubeadm创建k8s集群之部署规划(三十)

    前言 上一篇我们讲述了使用Kubectl管理k8s集群,那么接下来,我们将使用kubeadm来启动k8s集群. 部署k8s集群存在一定的挑战,尤其是部署高可用的k8s集群更是颇为复杂(后续会讲).因此 ...

  7. k8s 1.12 环境部署及学习笔记

    1.K8S概述 1.Kubernetes是什么 2.Kubernetes特性 3.Kubernetes集群架构与组件 4.Kubernetes核心概念 1.1 Kubernetes是什么 • Kube ...

  8. 基于 K8S 集群安装部署 istio-1.2.4

    使用云平台可以为组织提供丰富的好处.然而,不可否认的是,采用云可能会给 DevOps 团队带来压力.开发人员必须使用微服务以满足应用的可移植性,同时运营商管理了极其庞大的混合和多云部署.Istio 允 ...

  9. 【k8s第二步】Kubernetes-Kubeadm部署安装【已修正错误】

    ⒈开启kube-proxy的ipvs的前置条件 模式改为lvs调度的方式,kube-proxy主要解决的是svc(service)与pod之间的调度关系,ipvs的调度方式可以极大的增加它的访问效率, ...

随机推荐

  1. Windows安装redis报错处理(转!)

    要谈则谈,要打便打! ---2019.5.9,贸易战 转自:http://www.yayihouse.com/yayishuwu/chapter/1297 安装redis报错信息 [9204] 15 ...

  2. 网页自动跳转 HTTP-EQUIV="REFRESH"

    文章:META HTTP-EQUIV="REFRESH" 实现网页自动跳转 < META HTTP-EQUIV="REFRESH" CONTENT=&qu ...

  3. Kotlin属性引用详解

    继续来学习Kotlin反射相关的,这次主要是跟反射属性相关的东东. 属性引用(Property Reference): 属性引用的用法与函数(方法)引用的用法是完全一致,都是通过::形式来引用的.下面 ...

  4. hdu3486Interviewe(二分是错的)(ST算法RMQ + 判定上下界枚举)

    题目大意是找最小的m使得前m段中每一段的最大值相加严格大于k,每一段长度为[n/m](n/m向下取整,多余的后半部分部分n-m*[n/m]不要) 先给一段我一开始的思路,和网上许多题解思路一样,但其实 ...

  5. SQL异常总结

    1.resultType和resultMap写错时,启动时就会报错 原因: 2.The error occurred while handling results ### SQL: select US ...

  6. ZOJ - 3265: Strange Game (优化 二分图匹配)

    pro:有一个长度为N的数组a[i],要求选择k[i]>0,使得b[i]=a[i]^k[i]%M中出现的不同数最多.N<=200, M<=1e9: sol:a^x%p的个数的有限的, ...

  7. vue饿了么UI库-笔记

    1. :rules="{required: true, message: '有效期不能为空'}" :rules="{type:'date',required: true, ...

  8. 洛谷 P2341 [HAOI2006]受欢迎的牛 题解

    今天学了强连通分量的Tarjan算法,做了这道类似于板子题的题(尽管我调了1.5h).主要的思路是用Tarjan缩点之后,求每个点的入度(实际上是出度,因为我是反着连边的).如果 有且只有一个点的入度 ...

  9. ArrayList 集合 简单运用

     集合 遍历 import java.util.ArrayList; class Demo02 { public static void main(String[] args) { // 创建Arra ...

  10. WinDbg扩展

    WinDbg的扩展,也可以叫插件.它用于实现针对特定调试目标的调试功能,用于扩展某一方面的调试功能.扩展的实现是通过扩展模块(DLL)实现的.Windbg本身已经包含了很多扩展命令,这些扩展为这Win ...