openstack(Pike 版)集群部署(三)--- Glance 部署
一、介绍
参照官网部署:https://docs.openstack.org/glance/queens/install/
继续上一博客进行部署:http://www.cnblogs.com/weijie0717/p/8556939.html
二、部署 Glance
1、配置数据库 (任意controller 节点操作)
# mysql -uroot -p
mysql> CREATE DATABASE glance;
mysql> GRANT ALL PRIVILEGES ON glance.* TO 'glance'@'localhost' IDENTIFIED BY 'GLANCE_DBPASS';
mysql> GRANT ALL PRIVILEGES ON glance.* TO 'glance'@'%' IDENTIFIED BY 'GLANCE_DBPASS';
2、配置glance 用户和 API 信息 (任意controller 节点操作)
a、获取管理员认证权限
# source admin-openrc
b、创建用户
# openstack user create --domain default --password-prompt glance (新用户需要配置密码)

c、分配 Glance到 指定project 和 role
# openstack role add --project service --user glance admin
d、创建 openstack Glance 服务
# openstack service create --name glance --description "OpenStack Image" image

e、创建 GLance API (admin,public,internal)
# openstack endpoint create --region RegionOne image public http://controller:9292 #(controller为 Glance-haproxy-vip)

# openstack endpoint create --region RegionOne image internal http://controller:9292 #(controller为 Glance-haproxy-vip)

# openstack endpoint create --region RegionOne image admin http://controller:9292 #(controller为 Glance-haproxy-vip)

3、 Glance 包安装 (所有controller-node)
# yum install -y openstack-glance
4、编辑配置文件 (所有controller-node)
a、编辑 /etc/glance/glance-api.conf 文件 # 标红区域为需要特别关注的地方
# vim /etc/glance/glance-api.conf
[DEFAULT] # 集群中此配置文件唯一不一样的区域,为避免后期 HAproxy 端口冲突
bind_host = 网卡IP
bind_port = 9292 [database]
# ...
connection = mysql+pymysql://glance:GLANCE_PASS@controller/glance [keystone_authtoken]
# ...
auth_uri = http://controller:5000
auth_url = http://controller:35357
memcached_servers = controller1:11211,controller2:11211,controller3:11211
auth_type = password
project_domain_name = default
user_domain_name = default
project_name = service
username = glance
password = GLANCE_PASS [paste_deploy]
# ...
flavor = keystone [glance_store] # 以下为Glance 本地存储配置
# ...
stores = file,http
default_store = file
filesystem_store_datadir = /var/lib/glance/images/
如下图:

b、编辑 /etc/glance/glance-registry.conf 文件 # 标红区域为需要特别关注的地方
# vim /etc/glance/glance-registry.conf
[DEFAULT] # 整个集群文件中唯一不同的区域
# ...
bind_host = 网卡ip
bind_port = 9191 [database]
connection = mysql+pymysql://glance:GLANCE_PASS@controller/glance [keystone_authtoken]
# ...
auth_uri = http://controller:5000
auth_url = http://controller:35357
memcached_servers = controller1:11211,controller2:11211,controller3:11211
auth_type = password
project_domain_name = default
user_domain_name = default
project_name = service
username = glance
password = GLANCE_PASS [paste_deploy]
# ...
flavor = keystone
5、初始化 Glance 数据库 (任意controller 节点操作)
# su -s /bin/sh -c "glance-manage db_sync" glance
# (忽略此处输出所有信息)
6、启动服务并设置开机自启动 (all-controller-node)
# systemctl enable openstack-glance-api.service openstack-glance-registry.service
# systemctl start openstack-glance-api.service openstack-glance-registry.service
# 查看端口,如下:服务启动正常

7、配置 Glance-Haproxy
博客:http://www.cnblogs.com/weijie0717/p/8530102.html
注:必须保证 单controller -node 认证 Glance 和 Keystone 时访问的是同一个节点,否则为认证失败。
三、测试 (任意 controller-node)
1、下载镜像
# cd /root
# wget http://download.cirros-cloud.net/0.3.5/cirros-0.3.5-x86_64-disk.img
2、上传镜像到Image server
# openstack image create "cirros" --file cirros-0.3.5-x86_64-disk.img --disk-format qcow2 --container-format bare --public

3、查看
1、查看镜像上传情况
# openstack image list

上传成功
2、查看openstack集群 当前支持服务
# openstack service list

到此处,openstack集群 Glance-server 使用本地存储 部署成功。
续: openstack集群 Glance-server 使用Ceph 存储。
1、删除之前上传的本地镜像。(任意 controller-node)
a、查看镜像ID
# openstack image list

b、删除镜像
# openstack image delete image-ID

2、拷贝ceph集群配置文件到所有controller 节点 /etc/ceph/ceph.conf (ceph 集群 任意节点)
# scp /etc/ceph/ceph.conf root@controller1:/etc/ceph/ceph.conf
# scp /etc/ceph/ceph.conf root@controller2:/etc/ceph/ceph.conf
# scp /etc/ceph/ceph.conf root@controller3:/etc/ceph/ceph.conf
3、创建 Glance 所需要的ceph 存储池:images (任意ceph-mon 节点 )
# ceph osd pool create images 64 64
4、生成和导出证书到 controller节点 (任意ceph-mon 节点 )
a、生成key
# ceph auth get-or-create client.glance mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=images'
b、查看
# ceph auth list

c、导出 key,并拷贝至所有controller 节点 /etc/ceph/文件中
# ceph auth get-or-create client.glance | tee /etc/ceph/ceph.client.glance.keyring
# scp /etc/ceph/ceph.client.glance.keyring root@controller-all:/etc/ceph/ceph.client.glance.keyring
d、修改ceph.conf 和 key 文件 权限 (所有controller节点操作)
# chown glance:glance /etc/ceph/ceph.client.glance.keyring
# chown glance:glance /etc/ceph/ceph.conf

5、安装 rbd 驱动包 (all-controller-node)
# yum install python-rbd -y
6、修改 glance-api 配置文件 (all-controller-node)
a、备份配置,便于恢复
# cp /etc/glance/glance-api.conf /etc/glance/glance-api.conf.bak
b、修改配置文件
# vim /etc/glance/glance-api.conf
[DEFAULT]
show_image_direct_url = True #启动镜像的写时复制功能 [glance_store]
stores = rbd
default_store = rbd
#filesystem_store_datadir = /var/lib/glance/images/ #注释此行,本地存储配置行
rbd_store_chunk_size = 8
rbd_store_pool = images
rbd_store_user = glance
rbd_store_ceph_conf = /etc/ceph/ceph.conf
7、重启服务 (all-controller-node)
# systemctl restart openstack-glance-api.service openstack-glance-registry.service
8、上传镜像进行测试。(任意 controller-node)
a、获取认证权限
# source admin-openrc
b、下载镜像
# wget http://download.cirros-cloud.net/0.3.5/cirros-0.3.5-x86_64-disk.img
c、上传镜像
# openstack image create "cirros" --file cirros-0.3.5-x86_64-disk.img --disk-format qcow2 --container-format bare --public

d、查看镜像上传情况
#openstack image list

9、ceph 查看镜像上传情况和处理告警
a、镜像已上传至ceph,ceph会有告警

b、告警信息查看


c、按照提示处理告警
# ceph osd pool application enable images rbd

Openstack Glance server 到此处部署完毕。
openstack(Pike 版)集群部署(三)--- Glance 部署的更多相关文章
- openstack高可用集群16-ceph介绍和部署
Ceph Ceph是一个可靠.自动重均衡.自动恢复的分布式存储系统,根据场景划分可以将Ceph分为三大块,分别是对象存储.块设备和文件系统服务.块设备存储是Ceph的强项. Ceph的主要优点是分布式 ...
- openstack pike 集群高可用 安装 部署 目录汇总
# openstack pike 集群高可用 安装部署#安装环境 centos 7 史上最详细的openstack pike版 部署文档欢迎经验分享,欢迎笔记分享欢迎留言,或加QQ群663105353 ...
- openstack高可用集群21-生产环境高可用openstack集群部署记录
第一篇 集群概述 keepalived + haproxy +Rabbitmq集群+MariaDB Galera高可用集群 部署openstack时使用单个控制节点是非常危险的,这样就意味着单个节 ...
- CentOS7.2非HA分布式部署Openstack Pike版 (实验)
部署环境 一.组网拓扑 二.设备配置 笔记本:联想L440处理器:i3-4000M 2.40GHz内存:12G虚拟机软件:VMware® Workstation 12 Pro(12.5.2 build ...
- VLAN 模式下的 OpenStack 管理 vSphere 集群方案
本文不合适转载,只用于自我学习. 关于为什么要用OpenStack 管理 vSphere 集群,原因可以有很多,特别是一些传统企业,VMware 的使用还是很普遍的,用 OpenStack 纳管至少会 ...
- Kubernetes容器集群管理环境 - 完整部署(上篇)
Kubernetes(通常称为"K8S")是Google开源的容器集群管理系统.其设计目标是在主机集群之间提供一个能够自动化部署.可拓展.应用容器可运营的平台.Kubernetes ...
- Kubeadm 1.9 HA 高可用集群本地离线镜像部署【已验证】
k8s介绍 k8s 发展速度很快,目前很多大的公司容器集群都基于该项目,如京东,腾讯,滴滴,瓜子二手车,易宝支付,北森等等. kubernetes1.9版本发布2017年12月15日,每三个月一个迭代 ...
- [K8s 1.9实践]Kubeadm 1.9 HA 高可用 集群 本地离线镜像部署
k8s介绍 k8s 发展速度很快,目前很多大的公司容器集群都基于该项目,如京东,腾讯,滴滴,瓜子二手车,北森等等. kubernetes1.9版本发布2017年12月15日,每是那三个月一个迭代, W ...
- 实现CI/CDk8s高可用集群搭建总结以及部署API到k8s
实现CI/CD(Centos7.2)系列二:k8s高可用集群搭建总结以及部署API到k8s 前言:本系列博客又更新了,是博主研究很长时间,亲自动手实践过后的心得,k8s集群是购买了5台阿里云服务器部署 ...
- openstack高可用集群17-openstack集成Ceph准备
Openstack集成Ceph准备 Openstack环境中,数据存储可分为临时性存储与永久性存储. 临时性存储:主要由本地文件系统提供,并主要用于nova虚拟机的本地系统与临时数据盘,以及存储gla ...
随机推荐
- Mapper的.xml文件的delete的参数问题
<?xml version="1.0" encoding="UTF-8"?><!DOCTYPE mapper PUBLIC "-// ...
- js 在光标位置插入内容
原文:https://blog.csdn.net/smartsmile2012/article/details/53642082 createDocumentFragment()用法: https:/ ...
- sql server的缺陷 将截断字符串或二进制数据 哪个字段
将截断字符串或二进制数据 哪个字段 消息 8152,级别 16,状态 14,第 2 行将截断字符串或二进制数据. sql server2000 sql server2014 也不能直接提示出哪个字段的 ...
- Linux命令:findutils
本篇介绍Linux中常用的文件查找和定位工具,包括:find.locate.which.xargs等. GNU find 命令参考<https://www.gnu.org/software/fi ...
- PRC远程过程调用
RPC(Remote Promote Call) 一种进程间通信方式.允许像调用本地服务一样调用远程服务. RPC框架的主要目标就是让远程服务调用更简单.透明.RPC框架负责屏蔽底层的传输方式(TCP ...
- LeetCode OJ 56. Merge Intervals
题目 Given a collection of intervals, merge all overlapping intervals. For example, Given [1,3],[2,6], ...
- atrous convolution
atrous convolution 简而言之,带孔卷积: 来自:https://zhuanlan.zhihu.com/p/27470685 假设一个二维信号,每个位置对应的输出为和卷积核为,带孔卷积 ...
- SAP 000 客户端初始登录
Solution 在SAP系统DB中删除账号SAP*,SAP系统会自动创建SAP*这个账号,然后初始密码是“PASS”,这样就获得Client 000 SAP*账号. Step by Step 以Or ...
- html -引入其他html页面
其他页面html为:ip.html 主页面代码 <body> <div id="ip"></div> </body> <scr ...
- java.net.NoRouteToHostException
1.之前一直默认的一个请求url,后来后台ip更换后,就报上述错误.网上好多方法说:关闭服务器端的防火墙,但试过没用. 问题有待重新测试解决