目录贴:Kubernetes学习系列

  本文依赖环境:Centos7部署Kubernetes集群基于Kubernetes集群部署skyDNS服务

  该示例中,我们将创建一个redis-master、两个redis-slave、三个frontend。其中,slave会实时备份master中数据,frontend会向master中写数据,之后会从slave中读取数据。所有系统间的调用(例如slave找master同步数据;frontend找master写数据;frontend找slave读数据等),采用的是dns方式实现。

1、准备工作

1.1镜像准备

  本示例中依赖以下几个镜像,请提前准备好:

docker.io/redis:latest                                1a8a9ee54eb7

registry.access.redhat.com/rhel7/pod-infrastructure:latest   34d3450d733b

gcr.io/google_samples/gb-frontend:v3                  c038466384ab

gcr.io/google_samples/gb-redisslave:v1                 5f026ddffa27

1.2环境准备

  需要一套kubernetes运行环境,及Cluster DNS,如下:

[root@k8s-master ~]# kubectl cluster-info
Kubernetes master is running at http://localhost:8080
KubeDNS is running at http://localhost:8080/api/v1/proxy/namespaces/kube-system/services/kube-dns
kubernetes-dashboard is running at http://localhost:8080/api/v1/proxy/namespaces/kube-system/services/kubernetes-dashboard To further debug and diagnose cluster problems, use 'kubectl cluster-info dump'.
[root@k8s-master ~]# kubectl get componentstatus
NAME STATUS MESSAGE ERROR
scheduler Healthy ok
controller-manager Healthy ok
etcd- Healthy {"health": "true"}
[root@k8s-master ~]# kubectl get nodes
NAME STATUS AGE
k8s-node- Ready 7d
k8s-node- Ready 7d
[root@k8s-master ~]# kubectl get deployment --all-namespaces
NAMESPACE NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE
kube-system kube-dns 5d
kube-system kubernetes-dashboard-latest 6d
[root@k8s-master ~]#

2、运行redis-master

2.1yaml文件

  1)redis-master-controller.yaml

apiVersion: v1
kind: ReplicationController
metadata:
name: redis-master
labels:
name: redis-master
spec:
replicas:
selector:
name: redis-master
template:
metadata:
labels:
name: redis-master
spec:
containers:
- name: master
image: redis
ports:
- containerPort:

  2)redis-master-service.yaml

apiVersion: v1
kind: Service
metadata:
name: redis-master
labels:
name: redis-master
spec:
ports:
# the port that this service should serve on
- port:
targetPort:
selector:
name: redis-master

2.2创建rc及service

  Master上执行:

[root@k8s-master yaml]# kubectl create -f redis-master-controller.yaml
replicationcontroller " redis-master" created
[root@k8s-master yaml]# kubectl create -f redis-master-service.yaml
service " redis-master" created
[root@k8s-master yaml]# kubectl get rc
NAME DESIRED CURRENT READY AGE
redis-master 1d
[root@k8s-master yaml]# kubectl get pod
NAME READY STATUS RESTARTS AGE
redis-master-5wyku / Running 1d

3、运行redis-slave

3.1yaml文件

  1)redis-slave-controller.yaml

apiVersion: v1
kind: ReplicationController
metadata:
name: redis-slave
labels:
name: redis-slave
spec:
replicas:
selector:
name: redis-slave
template:
metadata:
labels:
name: redis-slave
spec:
containers:
- name: worker
image: gcr.io/google_samples/gb-redisslave:v1
env:
- name: GET_HOSTS_FROM
value: dns
ports:
- containerPort:

  2)redis-slave-service.yaml

apiVersion: v1
kind: Service
metadata:
name: redis-slave
labels:
name: redis-slave
spec:
ports:
- port:
selector:
name: redis-slave

3.2创建rc及service

  Master上执行:

[root@k8s-master yaml]# kubectl create -f redis-slave-controller.yaml
replicationcontroller "redis-slave" created
[root@k8s-master yaml]# kubectl create -f redis-slave-service.yaml
service "redis-slave" created
[root@k8s-master yaml]# kubectl get rc
NAME DESIRED CURRENT READY AGE
redis-master 1d
redis-slave 44m
[root@k8s-master yaml]# kubectl get pod
NAME READY STATUS RESTARTS AGE
redis-master-5wyku / Running 1d
redis-slave-7h295 / Running 44m
redis-slave-r355y / Running 44m

4、运行frontend

4.1yaml文件

  1)frontend-controller.yaml

apiVersion: v1
kind: ReplicationController
metadata:
name: frontend
labels:
name: frontend
spec:
replicas:
selector:
name: frontend
template:
metadata:
labels:
name: frontend
spec:
containers:
- name: frontend
image: gcr.io/google_samples/gb-frontend:v3
env:
- name: GET_HOSTS_FROM
value: dns
ports:
- containerPort:

  2)frontend-service.yaml

apiVersion: v1
kind: Service
metadata:
name: frontend
labels:
name: fronted
spec:
type: NodePort
ports:
- port:
nodePort:
selector:
name: frontend

4.2创建rc及service

  Master上执行:

[root@k8s-master yaml]# kubectl create -f frontend-controller.yaml
replicationcontroller "frontend" created
[root@k8s-master yaml]# kubectl create -f frontend-service.yaml
service "frontend" created
[root@k8s-master yaml]# kubectl get rc
NAME DESIRED CURRENT READY AGE
frontend 28m
redis-master 1d
redis-slave 44m
[root@k8s-master yaml]# kubectl get pod
NAME READY STATUS RESTARTS AGE
frontend-ax654 / Running 29m
frontend-k8caj / Running 29m
frontend-x6bhl / Running 29m
redis-master-5wyku / Running 1d
redis-slave-7h295 / Running 44m
redis-slave-r355y / Running 44m
[root@k8s-master yaml]# kubectl get service
NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE
frontend 10.254.93.91 <nodes> /TCP 47m
kubernetes 10.254.0.1 <none> /TCP 7d
redis-master 10.254.132.210 <none> /TCP 1d
redis-slave 10.254.104.23 <none> /TCP 1h

4.3页面验证

  至此,Guestbook已经运行在了kubernetes中了,但是外部是无法通过通过frontend-service的IP10.0.93.91这个IP来进行访问的。Service的虚拟IP是kubernetes虚拟出来的内部网络,在外部网络中是无法寻址到的,这时候就需要增加一层外网到内网的网络转发。我们的示例中采用的是NodePort的方式实现的,之前在创建frontend-service时设置了nodePort: 30001,即kubernetes将会在每个Node上设置端口,成为NodePort,通过NodePort端口可以访问到真正的服务。

基于Kubernetess集群部署完整示例——Guestbook的更多相关文章

  1. 基于Kubernetes集群部署skyDNS服务

    目录贴:Kubernetes学习系列 在之前几篇文章的基础,(Centos7部署Kubernetes集群.基于kubernetes集群部署DashBoard.为Kubernetes集群部署本地镜像仓库 ...

  2. 基于k8s集群部署prometheus监控ingress nginx

    目录 基于k8s集群部署prometheus监控ingress nginx 1.背景和环境概述 2.修改prometheus配置 3.检查是否生效 4.配置grafana图形 基于k8s集群部署pro ...

  3. 基于k8s集群部署prometheus监控etcd

    目录 基于k8s集群部署prometheus监控etcd 1.背景和环境概述 2.修改prometheus配置 3.检查是否生效 4.配置grafana图形 基于k8s集群部署prometheus监控 ...

  4. 基于kubernetes集群部署DashBoard

    目录贴:Kubernetes学习系列 在之前一篇文章:Centos7部署Kubernetes集群,中已经搭建了基本的K8s集群,本文将在此基础之上继续搭建K8s DashBoard. 1.yaml文件 ...

  5. 基于kubernetes集群的Vitess最佳实践

    概要 本文主要说明基于kubernetes集群部署并使用Vitess; 本文假定用户已经具备了kubernetes集群使用环境,如果不具备请先参阅基于minikube的kubernetes集群搭建, ...

  6. 为Kubernetes集群部署本地镜像仓库

    目录贴:Kubernetes学习系列 经过之前两篇文章:Centos7部署Kubernetes集群.基于kubernetes集群部署DashBoard,我们基本上已经能够在k8s的集群上部署一个应用了 ...

  7. 部署Bookinfo示例程序详细过程和步骤(基于Kubernetes集群+Istio v1.0)

    部署Bookinfo示例程序详细过程和步骤(基于Kubernetes集群+Istio v1.0) 部署Bookinfo示例程序   在下载的Istio安装包的samples目录中包含了示例应用程序. ...

  8. 基于pgpool搭建postgressql集群部署

    postgresql集群搭建 基于pgpool中间件实现postgresql一主多从集群部署,这里用两台服务器作一主一从示例 虚拟机名 IP 主从划分 THApps 192.168.1.31 主节点 ...

  9. 基于Tomcat的Solr3.5集群部署

    基于Tomcat的Solr3.5集群部署 一.准备工作 1.1 保证SOLR库文件版本相同 保证SOLR的lib文件版本,slf4j-log4j12-1.6.1.jar slf4j-jdk14-1.6 ...

随机推荐

  1. 关于mobilesroll使用方法的再次声明

    js $('#name').click(function(valueText) { $('#demo').mobiscroll('show'); // return false; }); $(&quo ...

  2. svn介绍

    什么是SVN(Subversion) Svn(subversion)是近年来崛起非常优秀的版本管理工具,与CVS管理工具一样,SVN是一个跨平台的开源的版本控制系统.Svn版本管理工具随着时间改变的各 ...

  3. SQL SERVER 2016研究三

    2016 SQL SEVER 全程加密程式 column encryption setting=Enabled; 重点:需要使用.Net Framework 4.6 新建一个程式如下: 1.创建链接数 ...

  4. Linux安装go

    在 http://golang.org/dl/下载最新的linux版本,并把它提取到/usr/local目录,在此目录下进行解压缩 $ sudo tar -xzf go1.9.1.linux-amd6 ...

  5. HBase单机模式安装

    第一部分 安装前准备 1.安装hadoop 今天刚刚学了hbase的一点基础,准备安装Hbase实际操练一下.因为安装hbase的前提条件是已经成功安装了hadoop,而且hadoop的版本要和hba ...

  6. 007-docker-安装-mysql:5.6

    1.搜索镜像 docker search mysql 2.拉取合适镜像 docker pull mysql:5.6 docker images 3.使用镜像 docker run -p 3306:33 ...

  7. 每周工作4小时,蒂莫西·费里斯 最理想的工作方式和生活方式,QQ群666243547

    内容简介  · · · · · · <每周工作4小时>是一本从观念到行为,彻底改变你的工作方式和生活方式的书.它既是数字时代的职场励志书和创业指导书,也是新新人类的全球化生存手册和人生哲学 ...

  8. sublime使用手册

    1.怎么批量选中开头和结尾?将光标定位到区域的开头,ctrl+alt+下键(一直按下键). 2.怎么打开和关闭tab的自动补全?preferences->settings->User{ & ...

  9. sap QG3搜索

    先创建一个QG3系统,创建一个用户. 1: 进入搜索模板 2: 选择软件组件,点击执行 3: 设置过滤条件. 4: 选择在哪一列 设置过滤条件. 5: 定义搜索值 6: 设置值 可以将搜索的结果删除. ...

  10. nginx反向代理 支持WebSocket

    WebSocket(简称WS)协议的握手和HTTP是兼容的,通过HTTP/1.1中协议转换机制,客户端可以传递名为“Upgrade” 头部信息将连接从HTTP连接升级到WebSocket连接 那么反向 ...