配置glance使用ceph作为后端存储】的更多相关文章

在ceph监视器上执行 1.创建pool池 为glance服务创建pool池(因为我只有一个OSD节点,所以要将副本数设置为1) ceph osd pool create glance-images  32 ceph osd pool set glance-images size 1 ceph osd pool application enable glance-images rbd 2.查看pool池的使用情况 ceph df 3.创建账号 ceph auth get-or-create cl…
在ceph监视器上执行 CINDER_PASSWD='cinder1234!'controllerHost='controller'RABBIT_PASSWD='0penstackRMQ' 1.创建pool池 为cinder-backup服务创建pool池(因为我只有一个OSD节点,所以要将副本数设置为1)ceph osd pool create cinder-backup 32ceph osd pool set cinder-backup size 1 ceph osd pool applic…
在ceph监视器上执行 CINDER_PASSWD='cinder1234!'controllerHost='controller'RABBIT_PASSWD='0penstackRMQ' 1.创建pool池 为cinder-volume服务创建pool池(因为我只有一个OSD节点,所以要将副本数设置为1)ceph osd pool create cinder-volumes 32ceph osd pool set cinder-volumes size 1 ceph osd pool appl…
块设备与 OPENSTACK 通过 libvirt 你可以把 Ceph 块设备用于 OpenStack ,它配置了 QEMU 到 librbd 的接口. Ceph 把块设备映像条带化为对象并分布到集群中,这意味着大容量的 Ceph 块设备映像其性能会比独立服务器更好. 要把 Ceph 块设备用于 OpenStack ,必须先安装 QEMU . libvirt 和 OpenStack .我们建议用一台独立的物理主机安装 OpenStack ,此主机最少需 8GB 内存和一个 4 核 CPU .下面…
在ceph监视器上执行 1.创建pool池 为nova服务创建pool池(因为我只有一个OSD节点,所以要将副本数设置为1) ceph osd pool create nova-vms 32 ceph osd pool set nova-vms size 1 ceph osd pool application enable glance-images rbd 2.查看pool池的使用情况 ceph df 3.创建账号 ceph auth get-or-create client.nova-vms…
一.在ceph集群上操作: 1.创建池(主要使用存储类来进行持久卷的挂载,其他的挂载方式不好使也太麻烦):ceph osd pool create k8s 64 二.在k8s上操作: 1.安装客户端(客户端版本与ceph集群的版本最好一致,不然创建image的时候死活创建不了): 给yum增加一个Ceph源(这里以网易源为例). tee /etc/yum.repos.d/ceph.repo <<-'EOF' [Ceph] name=Ceph packages for $basearch bas…
配置Ceph存储为OpenStack的后端存储 1  前期配置 Ceph官网提供的配置Ceph块存储为OpenStack后端存储的文档说明链接地址:http://docs.ceph.com/docs/master/rbd/rbd-openstack/ 1.1  注意点 (1)OpenStack的节点使用的Ceph客户端的版本应该跟Ceph节点使用的Ceph版本一致,不然可能会出现类似Functional not supported的问题,这里我使用的Ceph版本是0.94.10版本的. (2)O…
一.使用ceph做glance后端 1.1 创建用于存储镜像的池 [root@serverc ~]#  ceph osd pool create images 128 128 pool 'images' created [root@serverc ~]# ceph osd pool application enable images rbd enabled application 'rbd' on pool 'images' 1.2 创建client.glance账号并授权 [root@serv…
k8s使用rbd作后端存储 k8s里的存储方式主要有三种.分别是volume.persistent volumes和dynamic volume provisioning. volume: 就是直接挂载在pod上的组件,k8s中所有的其他存储组件都是通过volume来跟pod直接联系的.volume有个type属性,type决定了挂载的存储是什么,常见的比如:emptyDir,hostPath,nfs,rbd,以及下文要说的persistentVolumeClaim等.跟docker里面的vol…
框架图 介绍 一种为优秀的性能.可靠性和可扩展性而设计的统一的.分布式文件系统 特点 CRUSH算法 Crush算法是ceph的两大创新之一,简单来说,ceph摒弃了传统的集中式存储元数据寻址的方案,转而使用CRUSH算法完成数据的寻址操作. Crush确定PG和osd之间的多对多关系 CRUSH在一致性哈希基础上很好的考虑了容灾域的隔离,能够实现各类负载的副本放置规则,例如跨机房.机架感知等. Crush算法有相当强大的扩展性,理论上支持数千个存储节点 高可用 Ceph中的数据副本数量可以由管…