Ceph集群rbd-mirror A、B区域备份实施方案
Ceph集群rbd-mirror A、B区域备份实施方案
备注:首先准备两个集群, 并确认其状态,集群的准备过程在这就不做陈述
1.查看集群状态
A区域
[root@ceph2111 ceph]# ceph -s
cluster 05440e8c-bbd9-4dca-b4e7-c0c88b3fa270
health HEALTH_OK
monmap e5: 3 mons at {ceph2111=10.10.2.111:6789/0,ceph2112=10.10.2.112:6789/0,ceph2113=10.10.2.113:6789/0}
election epoch 44, quorum 0,1,2 ceph2111,ceph2112,ceph2113
osdmap e63: 4 osds: 3 up, 3 in
flags sortbitwise
pgmap v4121: 64 pgs, 1 pools, 557 bytes data, 14 objects
111 MB used, 45935 MB / 46046 MB avail
64 active+clean
[root@ceph2111 ceph]# B区域 [root@ceph111 ceph]# ceph -s
cluster e091a437-85a5-4561-b445-ef67ea98cfb2
health HEALTH_OK
monmap e1: 3 mons at {ceph111=10.10.1.111:6789/0,ceph112=10.10.1.112:6789/0,ceph115=10.10.1.115:6789/0}
election epoch 18, quorum 0,1,2 ceph111,ceph112,ceph115
osdmap e40: 6 osds: 6 up, 6 in
flags sortbitwise
pgmap v293: 64 pgs, 1 pools, 555 bytes data, 14 objects
205 MB used, 30448 MB / 30653 MB avail
64 active+clean
client io 0 B/s rd, 0 op/s rd, 0 op/s wr 2.在两个集群里都安装tbd-mirror rpm包 yum install rbd-mirror 3.在A和B两端都启动rbd-mirror的进程 [root@ceph2111 ceph]# rbd-mirror -m 10.10.2.111 -d
2016-10-27 12:17:28.140639 7f788b294c40 0 ceph version 10.2.3 (ecc23778eb545d8dd55e2e4735b53cc93f92e65b), process rbd-mirror, pid 1867 这里是用nohup 在后台运行
A区域
[root@ceph2111 ceph]# nohup rbd-mirror -m 10.10.2.111 -d > /dev/null 2>&1 &
[1] 1953 B区域
[root@ceph111 ~]# nohup rbd-mirror -m 10.10.1.111 -d > /dev/null 2>&1 &
[1] 15408 确认是否在运行 [root@ceph2111 ceph]# ps -ef|grep rbd
root 1953 30723 0 12:19 pts/0 00:00:00 rbd-mirror -m 10.10.2.111 -d
root 1984 30723 0 12:19 pts/0 00:00:00 grep --color=auto rbd 4.在ceph.conf 里添加 rbd_default_features = 125 A区域
[root@ceph2111 ceph]# vi ceph.conf
[global]
fsid = 05440e8c-bbd9-4dca-b4e7-c0c88b3fa270
mon_initial_members = ceph2111, ceph2112, ceph2113
mon_host = 10.10.2.111,10.10.2.112,10.10.2.113
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx
osd pool default size = 2
public network = 10.10.2.0/24
rbd_default_features = 125
~
"ceph.conf" 10L, 323C written B区域
[root@ceph111 my_cluster]# vi ceph.conf
[global]
fsid = e091a437-85a5-4561-b445-ef67ea98cfb2
mon_initial_members = ceph111, ceph112, ceph115
mon_host = 10.10.1.111,10.10.1.112,10.10.1.115
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx
osd pool default size = 2
public network = 10.10.1.0/24
rbd_default_features = 125 5.对A进行设置 [root@ceph2111 ceph]# cp ceph.conf local.conf
[root@ceph2111 ceph]# cp ceph.client.admin.keyring local.client.admin.keyring 把A区域 cp到B区域环境中 [root@ceph2111 ceph]# scp local.conf local.client.admin.keyring root@10.10.1.111:/etc/ceph/
local.conf 100% 323 0.3KB/s 00:00
local.client.admin.keyring 在A 集群里进行 同步配置 [root@ceph2111 ceph]# ceph-deploy --overwrite-conf admin ceph{2111..2114} 检验上面设置是否完成 A区域
[root@ceph2111 ceph]# ceph --cluster local mon stat
e5: 3 mons at {ceph2111=10.10.2.111:6789/0,ceph2112=10.10.2.112:6789/0,ceph2113=10.10.2.113:6789/0}, election epoch 44, quorum 0,1,2 ceph2111,ceph2112,ceph2113
[root@ceph2111 ceph]# ceph --cluster remote mon stat
e1: 3 mons at {ceph111=10.10.1.111:6789/0,ceph112=10.10.1.112:6789/0,ceph115=10.10.1.115:6789/0}, election epoch 18, quorum 0,1,2 ceph111,ceph112,ceph115 B区域 root@ceph111 ceph]# cp ceph.conf remote.conf
[root@ceph111 ceph]# cp ceph.client.admin.keyring remote.client.admin.keyring
[root@ceph111 ceph]# ls
ceph.client.admin.keyring ceph.conf local.client.admin.keyring local.conf rbdmap remote.client.admin.keyring remote.conf tmpr_jrwC tmptBCcx2
[root@ceph111 ceph]# scp remote.c
remote.client.admin.keyring remote.conf
[root@ceph111 ceph]# scp remote.c* root@10.10.2.111:/etc/ceph/
remote.client.admin.keyring 100% 129 0.1KB/s 00:00
remote.conf [root@ceph111 ceph]# ceph --cluster local mon stat
e5: 3 mons at {ceph2111=10.10.2.111:6789/0,ceph2112=10.10.2.112:6789/0,ceph2113=10.10.2.113:6789/0}, election epoch 44, quorum 0,1,2 ceph2111,ceph2112,ceph2113
[root@ceph111 ceph]# ceph --cluster remote mon stat
e1: 3 mons at {ceph111=10.10.1.111:6789/0,ceph112=10.10.1.112:6789/0,ceph115=10.10.1.115:6789/0}, election epoch 18, quorum 0,1,2 ceph111,ceph112,ceph115 100% 320 0.3KB/s 00:00 6.准备工作完成了,开始做相关配置
A区域
[root@ceph2111 ceph]# rbd --cluster local mirror pool enable rbd pool
[root@ceph2111 ceph]# rbd --cluster remote mirror pool enable rbd pool 如果需要关闭那么执行 1. rbd --cluster local mirror pool disable rbd
2. rbd --cluster remote mirror pool disable rbd 增加 CLUSTER PEER
格式
rbd mirror pool peer add {pool-name} {client-name}@{cluster-name}
使用admin这个账户就可以了 执行
A区域 [root@ceph2111 ceph]# rbd --cluster local mirror pool peer add rbd client.admin@remote
d79c69c5-5fac-4bcb-8e93-28a18994d637
[root@ceph2111 ceph]# rbd --cluster remote mirror pool peer add rbd client.admin@local
9dd66d08-89e4-4c91-a389-649b9c6940de 7.查询是否连接好
A区域 [root@ceph2111 ceph]# rbd --cluster local mirror pool info
Mode: pool
Peers:
UUID NAME CLIENT
d79c69c5-5fac-4bcb-8e93-28a18994d637 remote client.admin
[root@ceph2111 ceph]# rbd --cluster remote mirror pool info
Mode: pool
Peers:
UUID NAME CLIENT
9dd66d08-89e4-4c91-a389-649b9c6940de local client.admin 如果需要删除
rbd mirror pool peer remove {pool-name} {peer-uuid} 执行
1. rbd --cluster local mirror pool peer remove image-pool uuid
2. rbd --cluster remote mirror pool peer remove image-pool uuid 8.验证是否成功 A区域
[root@ceph2111 ceph]# rbd create test2111 --size 400 开启tbd-mirror pool enable 功能 [root@ceph2111 ceph]# rbd-mirror pool enable
[root@ceph2111 ceph]# rbd ls
test111
test2111
[root@ceph2111 ceph]# B区域
[root@ceph111 ceph]# rbd create test111 --size 400
[root@ceph111 ceph]# rbd ls [root@ceph111 ceph]# rbd-mirror pool enable
[root@ceph111 ceph]# rbd ls
test111
test2111 9.备注镜像的升级与降级 1. ceph]# rbd --cluster local mirror image demote rbd/test111
2. ceph]# rbd --cluster local mirror image promote rbd/test111
3. ceph]# rbd --cluster local mirror image promote rbd/test111
4. rbd: error promoting image to primary
5. 2016-03-30 23:35:13.477096 7ffa50a3dc00 -1 librbd: image is already primary
Ceph集群rbd-mirror A、B区域备份实施方案的更多相关文章
- 分布式存储系统之Ceph集群RBD基础使用
前文我们了解了Ceph集群cephx认证和授权相关话题,回顾请参考https://www.cnblogs.com/qiuhom-1874/p/16748149.html:今天我们来聊一聊ceph集群的 ...
- CEPH集群RBD快照创建、恢复、删除、克隆(转)
Ceph支持一个非常好的特性,以COW(写时复制)的方式从RBD快照创建克隆,在Ceph中被称为快照分层.分层特性允许用户创建多个CEPH RBD克隆实例.这些特性应用于OpenStack等云平台中 ...
- CEPH-2:rbd功能详解及普通用户应用ceph集群
ceph集群rbd使用详解 一个完整的ceph集群,可以提供块存储.文件系统和对象存储. 本节主要介绍rbd存储功能如何灵活的使用,集群背景: $ ceph -s cluster: id: 53717 ...
- CEPH集群操作入门--配置
参考文档:CEPH官网集群操作文档 概述 Ceph存储集群是所有Ceph部署的基础. 基于RADOS,Ceph存储集群由两种类型的守护进程组成:Ceph OSD守护进程(OSD)将数据作为对象 ...
- Ubuntu 18.04.5 LTS Ceph集群之 cephx 认证及使用普通用户挂载RBD和CephFS
1.cephx认证和授权 1.1 CephX认证机制 Ceph使用cephx协议对客户端进行身份认证: 1.每个MON都可以对客户端进行身份验正并分发密钥, 不存在单点故障和性能瓶颈 2. MON会返 ...
- 008 Ceph集群数据同步
介绍,目前已经创建一个名为ceph的Ceph集群,和一个backup(单节点)Ceph集群,是的这两个集群的数据可以同步,做备份恢复功能 一.配置集群的相互访问 1.1 安装rbd mirror rb ...
- CentOS 7 搭建 Ceph 集群(nautilus 版本)
搭建 Ceph 分布式集群( nautilus 版本 ) 一.服务器环境说明 主机名 角色 IP地址 ceph-admin ceph-deploy 192.168.92.21 ceph-node1 m ...
- ceph-deploy离线部署ceph集群及报错解决FAQ
ceph-deploy部署ceph集群 环境介绍 主机名 ip地址 操作系统 角色 备注 ceph-node1 10.153.204.13 Centos7.6 mon.osd.mds.mgr.rgw. ...
- 分布式存储系统之Ceph集群存储池、PG 与 CRUSH
前文我们了解了ceph集群状态获取常用命令以及通过ceph daemon.ceph tell动态配置ceph组件.ceph.conf配置文件相关格式的说明等,回顾请参考https://www.cnbl ...
随机推荐
- require_once(): Failed opening required '/var/www/config/config.php' (include_path='.:') in /var/www/vendor/forkiss/pharest/src/Pharest/Register/Register.php on line 10
环境 docker环境 错误 [Tue Jun 18 18:43:26 2019] 127.0.0.1:53980 [500]: /index.php - require_once(): Failed ...
- Linux(二) 常用命令
Linux简介及Ubuntu安装 Linux,免费开源,多用户多任务系统.基于Linux有多个版本的衍生.RedHat.Ubuntu.Debianaa 安装VMware或VirtualBox虚拟机 ...
- html中常用的标签小结
内容详细标签: <h1>~<h6>标题标签<pre>格式化文本<u>下划线(underline)<i>斜体字(italics)<cit ...
- ci框架文件上传
控制器类代码 <?php if ( ! defined('BASEPATH')) exit('No direct script access allowed'); class Upload ex ...
- VS2010 MFC中 给菜单项添加消息响应函数
久了没用,居然忘记了该怎样给菜单项添加响应函数了~~~~~~~~T_T 特记于此: 1. 在资源视图的Menu里找到自己要添加的菜单,然后输入菜单项. 2. 右击菜单项选属性,设置Popup为Fals ...
- base64加密PHP脚本的解码方法
转自:http://yoursunny.com/t/2009/PHP-decode/ PHP是网站服务端最流行的编程语言之一.PHP运行环境本身是开源的,服务器不加载插件时PHP脚本也无法加密.但是, ...
- 微信小程序 - gulp插件压缩(代码、图片等)
最后更新时间: 2018.7.18 :更新了所有package.json插件版本以及修复极个别问题. 2018.8.12 : 增加提示,所有标签必须闭合(不然打包会报错) 2018.10.13:需要用 ...
- Vmware+gdb调试Linux内核——工欲善其事,必先利其器
今天我最终忍受不了qemu的低速跟不可理喻的各种bug,開始寻找新的调试内核的方法.然后想到了Vmware,那么成熟的虚拟机怎么可能调试不了内核.于是尝试了一番,发现结果很的棒!所以立刻奋笔疾书.把这 ...
- centOS 7中上网以及网卡的一些设置
在VMWare中安装LinuxOS是个非经常见的事情. 可是,关于虚拟机的上网问题.想在这里总结一下,里面还有不懂的问题.希望能够得到前辈的解惑. 一.VMWare网卡的设置的三种选项: Bridge ...
- Django之站内搜索-Solr,Haystack
java -version 不多说 solr 是java 开发的 java version "1.7.0_79" Java(TM) SE Runtime Environment ( ...