ceph对接k8s storage class】的更多相关文章

简介 对接ceph的rbd和cephfs到k8s中提供持久化存储 环境 主机名 IP role 操作系统 ceph-01 172.16.31.11 mon osd CentOS7.8 ceph-02 172.16.31.12 Osd CentOS7.8 ceph-03 172.16.31.13 osd CentOS7.8 这个是官网的图 步骤 安装ceph 主机名设置 ## ceph-01 hostnamectl set-hostname ceph-01 ## ceph-02 hostnamec…
ceph对接openstack环境 环境准备: 保证openstack节点的hosts文件里有ceph集群的各个主机名,也要保证ceph集群节点有openstack节点的各个主机名 一.使用rbd方式提供存储如下数据: (1)image:保存glanc中的image:   (2)volume存储:保存cinder的volume:保存创建虚拟机时选择创建新卷:       二.实施步骤: (1)客户端也要有cent用户: useradd cent && echo "123"…
Ceph 准备工作 官方文档:http://docs.ceph.com/docs/master/rbd/rbd-openstack/ 官方中文文档:http://docs.ceph.org.cn/rbd/rbd-openstack/ 环境准备:保证openstack节点的hosts文件里有ceph集群的各个主机名,也要保证ceph集群节点有openstack节点的各个主机名 创建存储池 # ceph osd pool create volumes 128 # ceph osd pool crea…
Storage Classes 介绍 StorageClass 为管理员提供了描述存储 "类" 的方法. 不同的类型可能会映射到不同的服务质量等级或备份策略,或是由群集管理员制定的任意策略. Kubernetes 本身并不清楚各种类代表的什么.这个类的概念在其他存储系统中有时被称为”配置文件”. StorageClass 资源 每个 StorageClass 都包含 provisioner.parameters 和 reclaimPolicy 字段, 这些字段会在StorageClas…
一.使用rbd方式提供存储如下数据: (1)image(glance):保存glanc中的image: (2)volume(cinder)存储:保存cinder的volume:保存创建虚拟机时选择创建新卷: (3)vms(nova)的存储:保存创建虚拟机时不选择创建新卷: 二.实施步骤: (1)客户端也要有cent用户:(比如说我openstack环境有100多个节点,我不可能说所有的节点都创建cent这个用户吧,那要选择的去创建,在我节点部署像cinder.nova.glance这三个服务的节…
环境准备: 保证openstack节点的hosts文件里有ceph集群的各个主机名,也要保证ceph集群节点有openstack节点的各个主机名 一.使用rbd方式提供存储如下数据: (1)image:保存glanc中的image:   (2)volume存储:保存cinder的volume:保存创建虚拟机时选择创建新卷:       二.实施步骤: (1)客户端也要有cent用户: useradd cent && echo "123" | passwd --stdin…
文档地址:https://github.com/minio/operator/blob/master/README.md https://docs.min.io/minio/k8s/deployment/deploy-minio-operator.html MinIO是Kubernetes原生的高性能对象存储,具有S3兼容的API.MinIO Kubernetes运营商支持将MinIO租户部署到私有和公共云基础设施("混合"云). 结构 每个MinIO租户代表Kubernetes集群中…
Ceph采用的是强一致性同步模型,所有副本都必须完成写操作才算一次写入成功,这就导致不能很好地支持跨域部署,因为如果副本在异地,网络延迟就会很大,拖垮整个集群的写性能.因此,Ceph集群很少有跨域部署的,也就缺乏异地容灾.Ceph RBD mirror是Ceph Jewel版本引入的新功能,支持两个Ceph集群数据同步,其原理非常类似mysql的主从同步机制,前者基于journaling,后者基于binlog,二者都是基于日志回放完成主从同步的. 1.1.    RBD mirror的原理 ce…
目录 ceph配置 k8s 配置 通过静态pv,pvc使用ceph 测试多pod挂载静态pv数据不一致问题 StoragaClass 方式 ceph 常用命令 k8s 常用命令 k8s各类端口及IP说明 端口说明 问题 PV访问模式 测试结果 参考 ceph配置 rbd create --size 100 rbd/nginx-image [root@localhost my-cluster]# rbd list nginx-image [root@localhost my-cluster]# r…
0x00 概述 本文章介绍如何使用ceph为k8s提供动态申请pv的功能.ceph提供底层存储功能,cephfs方式支持k8s的pv的3种访问模式ReadWriteOnce,ReadOnlyMany ,ReadWriteMany ,RBD支持ReadWriteOnce,ReadOnlyMany两种模式 访问模式只是能力描述,并不是强制执行的,对于没有按pvc声明的方式使用pv,存储提供者应该负责访问时的运行错误.例如如果设置pvc的访问模式为ReadOnlyMany ,pod挂载后依然可写,如果…