ceph对接openstack】的更多相关文章

ceph对接openstack环境 环境准备: 保证openstack节点的hosts文件里有ceph集群的各个主机名,也要保证ceph集群节点有openstack节点的各个主机名 一.使用rbd方式提供存储如下数据: (1)image:保存glanc中的image:   (2)volume存储:保存cinder的volume:保存创建虚拟机时选择创建新卷:       二.实施步骤: (1)客户端也要有cent用户: useradd cent && echo "123"…
Ceph 准备工作 官方文档:http://docs.ceph.com/docs/master/rbd/rbd-openstack/ 官方中文文档:http://docs.ceph.org.cn/rbd/rbd-openstack/ 环境准备:保证openstack节点的hosts文件里有ceph集群的各个主机名,也要保证ceph集群节点有openstack节点的各个主机名 创建存储池 # ceph osd pool create volumes 128 # ceph osd pool crea…
一.使用rbd方式提供存储如下数据: (1)image(glance):保存glanc中的image: (2)volume(cinder)存储:保存cinder的volume:保存创建虚拟机时选择创建新卷: (3)vms(nova)的存储:保存创建虚拟机时不选择创建新卷: 二.实施步骤: (1)客户端也要有cent用户:(比如说我openstack环境有100多个节点,我不可能说所有的节点都创建cent这个用户吧,那要选择的去创建,在我节点部署像cinder.nova.glance这三个服务的节…
环境准备: 保证openstack节点的hosts文件里有ceph集群的各个主机名,也要保证ceph集群节点有openstack节点的各个主机名 一.使用rbd方式提供存储如下数据: (1)image:保存glanc中的image:   (2)volume存储:保存cinder的volume:保存创建虚拟机时选择创建新卷:       二.实施步骤: (1)客户端也要有cent用户: useradd cent && echo "123" | passwd --stdin…
    Ceph 是一种为优秀的性能.可靠性和可扩展性而设计的统一的.分布式文件系统.Ceph 的统一体现在可以提供文件系统.块存储和对象存储,分布式体现在可以动态扩展.在国内一些公司的云环境中,通常会采用 Ceph 作为 OpenStack 的唯一后端存储来提高数据转发效率. 1.安装ceph(版本:nautilus) # 在node1.node2.node3上安装ceph并组成集群 yum -y install ceph 监视器monitor(node1上操作)     在node1上提供配…
在 <"Ceph浅析"系列之二--Ceph概况>中即已提到,关注Ceph的原因之一,就是OpenStack社区对于Ceph的重视.因此,本文将对Ceph在OpenStack中的价值进行简要介绍,并且对Ceph和Swift进行对比. Ceph在OpenStack中的地位 对于一个IaaS系统,涉及到存储的部分主要是块存储服务模块.对象存储服务模块.镜像管理模块和计算服务模块.具体针对OpenStack而言,则分别对应为其中的Cinder.Swift.Glance和Nova四个…
对Ceph在OpenStack中的价值进行简要介绍,并且对Ceph和Swift进行对比. 对于一个IaaS系统,涉及到存储的部分主要是块存储服务模块.对象存储服务模块.镜像管理模块和计算服务模块.具体针对OpenStack而言,则分别对应为其中的Cinder.Swift.Glance和Nova四个项目[1]. 在块存储服务部分,Ceph目前是Cinder项目的默认存储后端.前已述及,Red Hat也已经利用自己在KVM/QEMU社区中的影响力,将RBD驱动直接集成在QEMU中.这样,虚拟机访问基…
1. Ceph与OpenStack整合(仅为云主机提供云盘功能) 创建: linhaifeng,最新修改: 大约1分钟以前 ceph ceph osd pool create volumes 128 128 ceph auth get-or-create client.cinder mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=volumes, allow rwx pool=vms,…
Ceph和OpenStack是一个非常有用和非常受欢迎的组合. 不过,部署Ceph / OpenStack经常会有一些容易避免的缺点 - 我们将帮助你解决它们 使用 show_image_direct_url and the Glance v2 API 使用ceph的RBD(RADOS Block Device),你可以创建克隆,你可以将克隆理解为可写的快照(快照通常是只读的).克隆只会为相对于父快照变化的部分创建对象,这意味着: 可以节省空间.这是显而易见的,但是这并不能很有说服力,毕竟存储是…
对接分为三种,也就是存储为openstack提供的三类功能1.云盘,就好比我们新加的硬盘2.原本的镜像也放在ceph里,但是我没有选择这种方式,原因是因为后期有要求,但是我会把这个也写出来,大家自己对比3.为云主机提供系统盘,在云主机创建的初期就必须给人家/./boot./home一类分空间,大家都懂的 ceph -s检查健康状态,一般情况回事HEALTH_WARN或者HEALTH_OK,ok就不说了没问题,warn也很常见说下问题跟解决方式:1.health HEALTH_WARN too f…
对接分为三种,也就是存储为openstack提供的三类功能1.云盘,就好比我们新加的硬盘2.原本的镜像也放在ceph里,但是我没有选择这种方式,原因是因为后期有要求,但是我会把这个也写出来,大家自己对比3.为云主机提供系统盘,在云主机创建的初期就必须给人家/./boot./home一类分空间,大家都懂的 ceph -s检查健康状态,一般情况回事HEALTH_WARN或者HEALTH_OK,ok就不说了没问题,warn也很常见说下问题跟解决方式:1.health HEALTH_WARN too f…
1.创建存储池 在ceph节点中执行如下语句. #ceph osd pool create volumes 2.配置 OPENSTACK 的 CEPH 客户端 在ceph节点两次执行如下语句,两次{your-openstack-server}分别填控制节点和计算节点IP. 如果显示在控制节点和计算节点中没有ceph文件夹,则在两节点中创建对应文件夹. #ssh {your-openstack-server} sudo tee /etc/ceph/ceph.conf < /etc/ceph/cep…
1.创建存储池 在ceph节点中执行如下语句. #ceph osd pool create volumes 2.配置 OPENSTACK 的 CEPH 客户端 在ceph节点两次执行如下语句,两次{your-openstack-server}分别填控制节点和计算节点IP. 如果显示在控制节点和计算节点中没有ceph文件夹,则在两节点中创建对应文件夹. #ssh {your-openstack-server} sudo tee /etc/ceph/ceph.conf < /etc/ceph/cep…
https://ervikrant06.wordpress.com/2015/10/24/how-to-configure-ceph-as-nova-compute-backend/ 在Ceph的admin-node上进行如下操作: 1. ceph osd pool create vms 1282. ceph auth get-or-create client.nova mon 'allow r' osd 'allow class-read object_prefix rbd_children,…
http://docs.ceph.com/docs/master/rbd/rbd-openstack/?highlight=nova#kilo 在Ceoh的admin-node上进行如下操作: 1. ceph osd pool create images 1282. ceph auth get-or-create client.glance mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool…
openstack 与 ceph 集成 在 ceph 上创建 openstack 需要的 pool. sudo ceph osd pool create volumes 128 sudo ceph osd pool create images 128 sudo ceph osd pool create backups 128 sudo ceph osd pool create vms 128 将 ceph 服务器上 /etc/ceph/ceph.conf 复制到 openstack 的 comp…
一.使用ceph做glance后端 1.1 创建用于存储镜像的池 [root@serverc ~]#  ceph osd pool create images 128 128 pool 'images' created [root@serverc ~]# ceph osd pool application enable images rbd enabled application 'rbd' on pool 'images' 1.2 创建client.glance账号并授权 [root@serv…
一.整合 glance ceph 1.1 查看servverb关于openstack的用户 [root@serverb ~]# vi ./keystonerc_admin unset OS_SERVICE_TOKEN export OS_USERNAME=admin export OS_PASSWORD=9f0b699989a04a05 export OS_AUTH_URL=http://172.25.250.11:5000/v2.0 export PS1='[\u@\h \W(keystone…
本环境ceph已经搭建,ceph搭建麻烦见本博客的其他文章 1 在cinder-volume节点安装ceph client yum install -y ceph-common 注意:glance要安装python-rbd cinder-volume节点安装ceph成功后,会生成/etc/ceph/这个目录,里面有一个文件. [root@controller2 etc]# cd ceph/ [root@controller2 ceph]# ls -ls 总用量 4 4 -rwxr-xr-x. 1…
简介 对接ceph的rbd和cephfs到k8s中提供持久化存储 环境 主机名 IP role 操作系统 ceph-01 172.16.31.11 mon osd CentOS7.8 ceph-02 172.16.31.12 Osd CentOS7.8 ceph-03 172.16.31.13 osd CentOS7.8 这个是官网的图 步骤 安装ceph 主机名设置 ## ceph-01 hostnamectl set-hostname ceph-01 ## ceph-02 hostnamec…
for el6 即centos6 1,添加ceph 官方yum源 [root@ruiy ~]# cat /etc/yum.repos.d/ceph.repo[ceph-noarch]name=Ceph noarch packagesbaseurl=http://ceph.com/rpm-firefly/el6/noarchenabled=1gpgcheck=1type=rpm-mdgpgkey=https://ceph.com/git/?p=ceph.git;a=blob_plain;f=key…
基础环境 系统: centos7.6(3.10.0-957) 64G内存 500G磁盘 关闭防火墙 systemctl disable firewalld 关闭selinux sed -i 's/SELINUX=enforcing/SELINUX=disabled/' /etc/selinux/config 安装依赖包 yum install python-devel gcc -y 设置主机名 hostnamectl set-hostname opcontroller hosts文件 [root…
创建对应的pool: ceph osd pool create volumes 512 ceph osd pool create images 512 ceph osd pool create vms 512 安装各个节点需要的组件: 在Controller节点安装ceph管理接口: sudo apt-get install python-ceph libvirt-bin 在Glance节点安装python-rbd: sudo apt-get install python-rbd  在Cinde…
ceph对接openstack环境 一.使用rbd方式提供存储如下数据: (1)image:保存glanc中的image: (2)volume存储:保存cinder的volume:保存创建虚拟机时选择创建新卷: (3)vms的存储:保存创建虚拟机时不选择创建新卷: 二.实施步骤: (1)客户端也要有cent用户: 1 2 3 useradd cent && echo "123" | passwd --stdin cent echo -e 'Defaults:cent !…
Ceph对接Openstack 官方文档: https://docs.ceph.com/docs/master/rbd/rbd-openstack/   Ceph的一个使用场景是结合Openstack来提供云存储服务,Openstack到Ceph之间的调用堆栈就是下面这个结构:…
部署ceph :https://www.cnblogs.com/cloudhere/p/10519647.html Centos7部署ceph:https://www.cnblogs.com/kevingrace/p/9141432.html ceph 对接openstack:https://www.cnblogs.com/cloudhere/p/10523995.html ceph https://www.cnblogs.com/luxiaodai/p/10006036.html#_label…
ceph对接openstack环境 一.使用RBD方式提供存储,如下数据: 1.image:保存glance中的image 2.volume存储:保存cinder的volume:保存创建虚拟机时选择创建新卷 3.vms的存储:保存创建虚拟机时不选择创建新卷 二.实施步骤 1.客户端也要有cent用户 useradd cent && echo "123" | passwd --stdin cent echo -e 'Defaults:cent !requiretty\nc…
一.ceph概念 Ceph是一种为优秀的性能.可靠性和可扩展性而设计的统一的.分布式文件系统.ceph 的统一体现在可以提供文件系统.块存储和对象存储,分布式体现在可以动态扩展. 什么是块存储/对象存储/文件系统存储? 1)对象存储: 也就是通常意义的键值存储,其接口就是简单的GET.PUT.DEL 和其他扩展,代表主要有 Swift .S3 以及 Gluster 等: 2)块存储: 这种接口通常以 QEMU Driver 或者 Kernel Module 的方式存在,这种接口需要实现 Linu…
[TOC]   1. Openstack 与 Ceph 1.1. Ceph 简介 Ceph 是当前非常流行的开源分布式存储系统,具有高扩展性.高性能.高可靠性等优点,同时提供块存储服务(RBD).对象存储服务(RGW)以及文件系统存储服务(CEPHFS).目前也是 OpenStack 的主流后端存储,和 OpenStack 亲如兄弟,为 OpenStack 提供统一共享存储服务.使用 Ceph 作为 OpenStack 后端存储,具有如下优点: 所有的计算节点共享存储,迁移时不需要拷贝根磁盘,即…
Openstack集成Ceph准备 Openstack环境中,数据存储可分为临时性存储与永久性存储. 临时性存储:主要由本地文件系统提供,并主要用于nova虚拟机的本地系统与临时数据盘,以及存储glance上传的系统镜像: 永久性存储:主要由cinder提供的块存储与swift提供的对象存储构成,以cinder提供的块存储应用最为广泛,块存储通常以云盘的形式挂载到虚拟机中使用. Openstack中需要进行数据存储的三大项目主要是nova项目(虚拟机镜像文件),glance项目(共用模版镜像)与…