Kubernetes持久化存储
一、emptyDir持久化存储配置
emptyDir 的一些用途:
- 缓存空间,例如基于磁盘的归并排序。
- 为耗时较长的计算任务提供检查点,以便任务能方便地从崩溃前状态恢复执行。
- 在 Web 服务器容器服务数据时,保存内容管理器容器获取的文件。
和上述 volume 不同的是,如果删除 Pod,emptyDir 卷中的数据也将被删除,一般 emptyDir卷用
于 Pod 中的不同 Container 共享数据。它可以被挂载到相同或不同的路径上。默认情况下,
emptyDir 卷支持节点上的任何介质,可能是 SSD、磁盘或网络存储,具体取决于自身的环境。可以将
emptyDir.medium 字段设置为 Memory,让 Kubernetes 使用 tmpfs(内存支持的文件系统),虽然 tmpfs
非常快,但是 tmpfs 在节点重启时,数据同样会被清除,并且设置的大小会被计入到 Container 的内存限制当中。
说明:
当启用 SizeMemoryBackedVolumes 特性门控时, 你可以为基于内存提供的卷指定大小。
如果未指定大小,则基于内存的卷的大小为 Linux 主机上内存的 50%
1-1、创建emptyDir yaml文件
vim emptydir-volume.yaml apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: emptydir-volume
name: emptydir-volume
spec:
replicas: 1
selector:
matchLabels:
app: emptydir-volume
template:
metadata:
creationTimestamp: null
labels:
app: emptydir-volume
spec:
containers:
- image: nginx:1.16.1-alpine
name: nginx
volumeMounts: #容器内挂载参数值
- mountPath: /mnt #容器内挂载参数目录路径
name: emptydir-share #挂载名字,名称要跟volume. - name 名称一致
volumes: #创建挂载模式参数值
- name: emptydir-share #挂载存储名称
emptyDir: {} #设置为emptyDir挂载模式
1-2、执行创建的emptyDir yaml文件命令
#创建 emptyDir 命令
kubectl create -f emptydir-volume.yaml #查看创建状态命令
kubectl get pod
注:emptyDir容器数据共享最好是一个yaml文件实现一个容器两个运气,这样才能实现数据共享。
上面的emptyDir yaml文件只需在配置文件里containers 下面添加一个镜像配置即可
二、hostPath持久化数据存储
2-1、创建hostPath yaml文件
vim hostpath-volume.yaml apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: hostpath-volume
name: hostpath-volume
spec:
replicas: 1
selector:
matchLabels:
app: hostpath-volume
template:
metadata:
creationTimestamp: null
labels:
app: hostpath-volume
spec:
containers:
- image: nginx:1.16.1-alpine
name: nginx
volumeMounts:
- mountPath: /opt #挂载容器目录路径
name: hostpath-share
volumes:
- name: hostpath-share
hostPath: #设置为hostPath数据持久化
path: /data #指定宿主机目录,这个目录每个节点需要都存在
type: Directory #设置hostPath type类型
注:hostPath 卷常用的 type(类型)如下:
1) type 为空字符串:默认选项,意味着挂载 hostPath 卷之前不会执行任何检查。
2) DirectoryOrCreate:如果给定的 path 不存在任何东西,那么将根据需要
创建一个权限为0755 的空目录,和 Kubelet 具有相同的组和权限。
3) Directory:目录必须存在于给定的路径下。
4) FileOrCreate:如果给定的路径不存储任何内容,则会根据需要创建一个空文件,
权限设置为 0644,和 Kubelet 具有相同的组和所有权。
5) File:文件,必须存在于给定路径中。
6) Socket:UNIX 套接字,必须存在于给定路径中。
7) CharDevice:字符设备,必须存在于给定路径中。
2-2、创建hostPath 容器命令和查询创建后状态
#创建
kubectl create -f hostpath-volume.yaml #查询
kubectl get pod
注:
在创建使用hostPaht持久化容器的时候,会存在volume.hostpath.path指定的宿主机目录相互节点数据不能同步,
如果数据不能同步会存在hostpath容器删除重建安装到其它节点上面,原来的数据不能功能想到新的节点上面使用。
hostPaht不推荐使用
2-3、挂载/etc/localtime 到容器修改容器里面的时间
vim web-hostpah.yaml apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: web-hostpath
name: web-hostpath spec:
replicas: 2
selector:
matchLabels:
app: web-hostpath
template:
metadata:
labels:
app: web-hostpath
spec:
containers:
- image: nginx
name: web-hostpath
ports:
- containerPort: 80
name: hostpath-svc
volumeMounts:
- name: cm-localtime
mountPath: /etc/localtime
readOnly: true
volumes:
- name: cm-localtime
hostPath:
path: /etc/localtime
type: File
三、NFS持久化数据存储
3-1、安装nfs服务(nfs服务只在一台机器安装即可)和每个节点上面安装nfs客户端软件
#找一台机器安装NFS服务端,命令如下
yum install nfs* rpcbind -y #NFS服务端创建共享目录
mkdir /data/share -p #NFS服务器创建共享目录
vim /etc/exports
/data/share/ *(rw,sync,no_subtree_check,no_root_squash) #启动NFS服务端
exportfs -r
systemctl restart nfs rpcbind #k8s所有节点安装nfs客户端
yum install nfs-utils -y #挂载测试
mount -t nfs nfs-serverIP:/data/share /mnt/
3-2、创建NFS yaml文件 vim nfs-volume.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: nfs-volume
name: nfs-volume
spec:
replicas: 1
selector:
matchLabels:
app: nfs-volume
template:
metadata:
creationTimestamp: null
labels:
app: nfs-volume
spec:
containers:
- image: nginx:1.16.1-alpine
name: nginx
volumeMounts:
- mountPath: /opt #挂载目录路径
name: nfs-volume
volumes:
- name: nfs-volume
nfs: #指向nfs 持久化存储
server: 192.168.3.81 #指向NFS服务器IP地址
path: /data/share #指向nfs服务器挂载目录
3-2、创建nfs容器和查看nfs容器创建状态
#创建
kubectl create -f nfs-volume.yaml #查询
kubectl get pod
注:
NFS持久化存储和NAS持久化存储配置一样只需稍作修改既可以使用NAS持久化存储。
生产环境不推荐使用NFS作为持久化存储
四、PVS配置NFS或NAS
说明:关于NFS服务架设看上面3-1示例
4-1、PV回收策略
➢ Retain:保留,该策略允许手动回收资源,当删除PVC时,PV仍然存在,PV被视为已释放,管理员可以手动回收卷。
➢ Recycle:回收,如果Volume插件支持,Recycle策略会对卷执行rm -rf清理该PV,并使其可用于下一个新的PVC,
但是本策略将来会被弃用,目前只有NFS和HostPath支持该策略。
➢ Delete:删除,如果Volume插件支持,删除PVC时会同时删除PV,动态卷默认为Delete,目前支持Delete的存储
后端包括AWS EBS, GCEPD, Azure Disk, or OpenStack Cinder等。
➢ 可以通过persistentVolumeReclaimPolicy: Recycle字段配置
4-4、创建NFS PV yaml 文件 vim pv-nfs.yaml
#NFS PV yaml文件 apiVersion: v1
kind: PersistentVolume
metadata:
name: pv-nfs
spec:
capacity:
storage: 5Gi
volumeMode: Filesystem
accessModes:
- ReadWriteOnce
persistentVolumeReclaimPolicy: Recycle
storageClassName: nfs-slow
nfs:
path: /data/share
server: 192.168.3.81 #创建
kubectl create -f pv-nfs.yaml
注:
➢ capacity:容量配置
➢ volumeMode:卷的模式,目前支持Filesystem文件系统) 和 Block(块),其中Block类型需要后端存储支持,
默认为文件系统
➢ storage: 5Gi :配置容量大小。容量大小限制需要挂载类型支撑。NFS不支持容量大小限制
➢ accessModes:该PV的访问模式
➢ storageClassName:PV的类,一个特定类型的PV只能绑定到特定类别的PVC;
➢ persistentVolumeReclaimPolicy:回收策略
➢ mountOptions:非必须,新版本中已弃用
[root@k8s-master1 pvc]# kubectl get pv
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pv-hostpath 5Gi RWO Recycle Available hostpath 8s
pv-nfs 5Gi RWO Recycle Available nfs-slow 12h
#hostPath PV yaml
vim pv-hostpath.yaml apiVersion: v1
kind: PersistentVolume
metadata:
name: pv-hostpath
labels:
type: local
spec:
capacity:
storage: 5Gi
accessModes:
- ReadWriteOnce
persistentVolumeReclaimPolicy: Recycle
storageClassName: hostpath
hostPath:
path: "/mnt/data" #创建
kubectl create -f pv-hostpath.yaml
4-7、创建PVC绑定NFS PV yaml文件
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: pvc-nfs-claim
spec:
storageClassName: nfs-slow #这里指定是创建PV里面的storageClassName这个名称,进行PV绑定
accessModes:
- ReadWriteOnce #这里访问策略和PV里面的策略保持一致
resources:
requests:
storage: 3Gi #这里要小于或等于PV storage 大小
注:pvc 没有指定命名空间因为需要跟pod在一个命名空间。如果需要指定命名空间自己在指向命名空间
4-7-1、创建PVC 绑定NFS和查看创建后状态
#创建
[root@k8s-master1 pvc]# kubectl create -f pvc-nfs-claim.yaml
persistentvolumeclaim/pvc-nfs-claim created #查看pvc绑定状态
[root@k8s-master1 pvc]# kubectl get pvc
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
pvc-nfs-claim Bound pv-nfs 5Gi RWO nfs-slow 8s [root@k8s-master1 pvc]# kubectl get pv pv-nfs
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pv-nfs 5Gi RWO Recycle Bound default/pvc-nfs-claim nfs-slow 12h
注:通过查看绑定状态,status 信息显示了Bound 以绑定状态,查看nfs pv的时候也显示Bound状态。说明NFS pv 已经更PVC绑定成功
4-8、挂载pvc
4-8-1、创建挂载yaml文件。把pvc挂载到Deployment nginx上面
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: nginx-pvc-nfs
name: nginx-pvc-nfs
spec:
replicas: 2
selector:
matchLabels:
app: nginx-pvc-nfs
template:
metadata:
creationTimestamp: null
labels:
app: nginx-pvc-nfs
spec:
containers:
- image: nginx:1.16.1-alpine
name: nginx
volumeMounts:
- mountPath: /usr/share/nginx/html #挂载目录路径
name: pvc-nfs-storage #这里的名称要跟volumes. -name 名称一致
volumes:
- name: pvc-nfs-storage
persistentVolumeClaim:
claimName: pvc-nfs-claim #这里的pvc-nfs-claim名称是pvc里面命名的名称需要跟pvc里面的名称一致,忘记需要进行查看
4-8-2、创建绑定和查看创建状态
#创建nginx和pvc绑定命令 [root@k8s-master1 pvc]# kubectl create -f nginx-pvc-nfs.yaml
deployment.apps/nginx-pvc-nfs created #查看状态
[root@k8s-master1 pvc]# kubectl get pod
NAME READY STATUS RESTARTS AGE
emptydir-volume-5c5f5f99cb-9nptl 1/1 Running 2 (98m ago) 21h
hostpath-volume-6896d5b675-mm467 1/1 Running 2 (97m ago) 21h
nfs-volume-76df7d5f7f-r24jm 1/1 Running 2 (97m ago) 21h
nginx-7f56bb9bdc-qgmvb 1/1 Running 4 (97m ago) 47h
nginx-pvc-nfs-69ccf559d6-9g8jm 1/1 Running 0 13s
nginx-pvc-nfs-69ccf559d6-v7kqj 1/1 Running 0 13s
web-5675698566-qlpl7 1/1 Running 4 (97m ago) 47h
4-8-3、登录容器查看nfs容器直接数据是否互相共享

Kubernetes持久化存储的更多相关文章
- Kubernetes持久化存储2——探究实验
目录贴:Kubernetes学习系列 一.简介 本文在“创建PV,创建PVC挂载PV,创建POD挂载PVC”这个环境的基础上,进行各种删除实验,并记录.分析各资源的状态. 二.实验脚本 实验创建了一个 ...
- Kubernetes 持久化存储是个难题,解决方案有哪些?\n
像Kubernetes 这样的容器编排工具正在彻底改变应用程序的开发和部署方式.随着微服务架构的兴起,以及基础架构与应用程序逻辑从开发人员的角度解耦,开发人员越来越关注构建软件和交付价值. Kuber ...
- Kubernetes持久化存储1——示例
目录贴:Kubernetes学习系列 一.简介 存储管理与计算管理是两个不同的问题.Persistent Volume子系统,对存储的供应和使用做了抽象,以API形式提供给管理员和用户使用.要完成这一 ...
- Kubernetes 学习(十)Kubernetes 容器持久化存储
0. 前言 最近在学习张磊老师的 深入剖析Kubernetes 系列课程,最近学到了 Kubernetes 容器持久化存储部分 现对这一部分的相关学习和体会做一下整理,内容参考 深入剖析Kuberne ...
- kubernetes学习 做持久化存储
本节演示如何为 MySQL 数据库提供持久化存储,步骤: 1.创建 PV 和 PVC 2.部署 MySQL 3.向 MySQL 添加数据 4.模拟节点宕机故障,Kubernetes 将 MySQL 自 ...
- 使用Ceph集群作为Kubernetes的动态分配持久化存储(转)
使用Docker快速部署Ceph集群 , 然后使用这个Ceph集群作为Kubernetes的动态分配持久化存储. Kubernetes集群要使用Ceph集群需要在每个Kubernetes节点上安装ce ...
- Kubernetes 系列(六):持久化存储 PV与PVC
在使用容器之后,我们需要考虑的另外一个问题就是持久化存储,怎么保证容器内的数据存储到我们的服务器硬盘上.这样容器在重建后,依然可以使用之前的数据.但是显然存储资源和 CPU 资源以及内存资源有很大不同 ...
- Kubernetes 使用 ceph-csi 消费 RBD 作为持久化存储
原文链接:https://fuckcloudnative.io/posts/kubernetes-storage-using-ceph-rbd/ 本文详细介绍了如何在 Kubernetes 集群中部署 ...
- Kubernetes之持久化存储
转载自 https://blog.csdn.net/dkfajsldfsdfsd/article/details/81319735 ConfigMap.Secret.emptyDir.hostPath ...
- Kubernetes的故事之持久化存储(十)
一.Storage 1.1.Volume 官网网址:https://kubernetes.io/docs/concepts/storage/volumes/ 通过官网说明大致总结下就是这个volume ...
随机推荐
- Python + logging 控制台有日志输出,但日志文件中数据为空
源码: def output(self, level, message): fh = logging.FileHandler(self.logpath, mode='a', encoding='utf ...
- 3、数组、集合、Lambda、Stream与Optional类
一.数组: 数组保存在JVM堆内存中 1.数组的创建: (1).一维数组创建方式一: //一维数组方式一 Integer[] array01 = {1,2,3}; System.out.println ...
- 4、Idea设置显示多行文件
使用IDEA时,可能会没有注意到,一旦打开过多的Java文件时,默认会堆积在一行显示,就像浏览器打开了多个标签一样,此时需要通过右侧箭头筛选的方式来选择其他文件.为了解决这一问题,需要打开多行显示的方 ...
- 传播问卷调查数据不够?自己生成假数据!Python编程一对一教学
问卷调查 Excel 样式 原文件下载 生成代码 序号 直接 range 生成即可. 提交答卷时间 import time time_str = time.strftime('%Y/%m/%d %H: ...
- 【集成开发环境 (IDE)】Dev-Cpp下载与安装 [ 图文教程 ]
版权声明 本文作者:main工作室 本文链接:https://www.cnblogs.com/main-studio/p/17037280.html 版权声明:本文为 博客园 博主「main工作室」的 ...
- 洛谷P1496 火烧赤壁【题解】
事先声明 本题解文字比较多,较为详细,算法为离散化和差分,如会的大佬可以移步去别处看这道题的思路(因为作者比较懒,不想新开两个专题). 题目简要 给定每个起火部分的起点和终点,请你求出燃烧位置的长度之 ...
- (22)go-micro微服务kibana使用
目录 一 kibana介绍 二 Kibana主要功能 三 Kibana侧边栏 四 Kibana安装 1.拉取镜像 2.运行命令 3.查看是否运行 五 Kibana使用 六 Kibana图形化界面 七 ...
- redis使用bitmap实现签到
import redis import datetime import calendar r = redis.Redis( host="127.0.0.1", port=637 ...
- Grafana 系列文章(十四):Helm 安装Loki
前言 写或者翻译这么多篇 Loki 相关的文章了, 发现还没写怎么安装 现在开始介绍如何使用 Helm 安装 Loki. 前提 有 Helm, 并且添加 Grafana 的官方源: helm repo ...
- quasar打包时:Module not found: Can't resolve imported dependency "dayjs/plugin/customParseFormat"
运行quasar build -m electron 后,报错如下: 看了这篇webpack 编译 element-plus 报错后,找到了报错的根源所在 于是,在quasar官方文档找到了针对web ...