Ceph集群rbd-mirror A、B区域备份实施方案

备注:首先准备两个集群, 并确认其状态,集群的准备过程在这就不做陈述
1.查看集群状态
A区域
[root@ceph2111 ceph]# ceph -s
cluster 05440e8c-bbd9-4dca-b4e7-c0c88b3fa270
health HEALTH_OK
monmap e5: 3 mons at {ceph2111=10.10.2.111:6789/0,ceph2112=10.10.2.112:6789/0,ceph2113=10.10.2.113:6789/0}
election epoch 44, quorum 0,1,2 ceph2111,ceph2112,ceph2113
osdmap e63: 4 osds: 3 up, 3 in
flags sortbitwise
pgmap v4121: 64 pgs, 1 pools, 557 bytes data, 14 objects
111 MB used, 45935 MB / 46046 MB avail
64 active+clean
[root@ceph2111 ceph]# B区域 [root@ceph111 ceph]# ceph -s
cluster e091a437-85a5-4561-b445-ef67ea98cfb2
health HEALTH_OK
monmap e1: 3 mons at {ceph111=10.10.1.111:6789/0,ceph112=10.10.1.112:6789/0,ceph115=10.10.1.115:6789/0}
election epoch 18, quorum 0,1,2 ceph111,ceph112,ceph115
osdmap e40: 6 osds: 6 up, 6 in
flags sortbitwise
pgmap v293: 64 pgs, 1 pools, 555 bytes data, 14 objects
205 MB used, 30448 MB / 30653 MB avail
64 active+clean
client io 0 B/s rd, 0 op/s rd, 0 op/s wr 2.在两个集群里都安装tbd-mirror rpm包 yum install rbd-mirror 3.在A和B两端都启动rbd-mirror的进程 [root@ceph2111 ceph]# rbd-mirror -m 10.10.2.111 -d
2016-10-27 12:17:28.140639 7f788b294c40 0 ceph version 10.2.3 (ecc23778eb545d8dd55e2e4735b53cc93f92e65b), process rbd-mirror, pid 1867 这里是用nohup 在后台运行
A区域
[root@ceph2111 ceph]# nohup rbd-mirror -m 10.10.2.111 -d > /dev/null 2>&1 &
[1] 1953 B区域
[root@ceph111 ~]# nohup rbd-mirror -m 10.10.1.111 -d > /dev/null 2>&1 &
[1] 15408 确认是否在运行 [root@ceph2111 ceph]# ps -ef|grep rbd
root 1953 30723 0 12:19 pts/0 00:00:00 rbd-mirror -m 10.10.2.111 -d
root 1984 30723 0 12:19 pts/0 00:00:00 grep --color=auto rbd 4.在ceph.conf 里添加 rbd_default_features = 125 A区域
[root@ceph2111 ceph]# vi ceph.conf
[global]
fsid = 05440e8c-bbd9-4dca-b4e7-c0c88b3fa270
mon_initial_members = ceph2111, ceph2112, ceph2113
mon_host = 10.10.2.111,10.10.2.112,10.10.2.113
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx
osd pool default size = 2
public network = 10.10.2.0/24
rbd_default_features = 125
~
"ceph.conf" 10L, 323C written B区域
[root@ceph111 my_cluster]# vi ceph.conf
[global]
fsid = e091a437-85a5-4561-b445-ef67ea98cfb2
mon_initial_members = ceph111, ceph112, ceph115
mon_host = 10.10.1.111,10.10.1.112,10.10.1.115
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx
osd pool default size = 2
public network = 10.10.1.0/24
rbd_default_features = 125 5.对A进行设置 [root@ceph2111 ceph]# cp ceph.conf local.conf
[root@ceph2111 ceph]# cp ceph.client.admin.keyring local.client.admin.keyring 把A区域 cp到B区域环境中 [root@ceph2111 ceph]# scp local.conf local.client.admin.keyring root@10.10.1.111:/etc/ceph/
local.conf 100% 323 0.3KB/s 00:00
local.client.admin.keyring 在A 集群里进行 同步配置 [root@ceph2111 ceph]# ceph-deploy --overwrite-conf admin ceph{2111..2114} 检验上面设置是否完成 A区域
[root@ceph2111 ceph]# ceph --cluster local mon stat
e5: 3 mons at {ceph2111=10.10.2.111:6789/0,ceph2112=10.10.2.112:6789/0,ceph2113=10.10.2.113:6789/0}, election epoch 44, quorum 0,1,2 ceph2111,ceph2112,ceph2113
[root@ceph2111 ceph]# ceph --cluster remote mon stat
e1: 3 mons at {ceph111=10.10.1.111:6789/0,ceph112=10.10.1.112:6789/0,ceph115=10.10.1.115:6789/0}, election epoch 18, quorum 0,1,2 ceph111,ceph112,ceph115 B区域 root@ceph111 ceph]# cp ceph.conf remote.conf
[root@ceph111 ceph]# cp ceph.client.admin.keyring remote.client.admin.keyring
[root@ceph111 ceph]# ls
ceph.client.admin.keyring ceph.conf local.client.admin.keyring local.conf rbdmap remote.client.admin.keyring remote.conf tmpr_jrwC tmptBCcx2
[root@ceph111 ceph]# scp remote.c
remote.client.admin.keyring remote.conf
[root@ceph111 ceph]# scp remote.c* root@10.10.2.111:/etc/ceph/
remote.client.admin.keyring 100% 129 0.1KB/s 00:00
remote.conf [root@ceph111 ceph]# ceph --cluster local mon stat
e5: 3 mons at {ceph2111=10.10.2.111:6789/0,ceph2112=10.10.2.112:6789/0,ceph2113=10.10.2.113:6789/0}, election epoch 44, quorum 0,1,2 ceph2111,ceph2112,ceph2113
[root@ceph111 ceph]# ceph --cluster remote mon stat
e1: 3 mons at {ceph111=10.10.1.111:6789/0,ceph112=10.10.1.112:6789/0,ceph115=10.10.1.115:6789/0}, election epoch 18, quorum 0,1,2 ceph111,ceph112,ceph115 100% 320 0.3KB/s 00:00 6.准备工作完成了,开始做相关配置
A区域
[root@ceph2111 ceph]# rbd --cluster local mirror pool enable rbd pool
[root@ceph2111 ceph]# rbd --cluster remote mirror pool enable rbd pool 如果需要关闭那么执行 1. rbd --cluster local mirror pool disable rbd
2. rbd --cluster remote mirror pool disable rbd 增加 CLUSTER PEER
格式
rbd mirror pool peer add {pool-name} {client-name}@{cluster-name}
使用admin这个账户就可以了 执行
A区域 [root@ceph2111 ceph]# rbd --cluster local mirror pool peer add rbd client.admin@remote
d79c69c5-5fac-4bcb-8e93-28a18994d637
[root@ceph2111 ceph]# rbd --cluster remote mirror pool peer add rbd client.admin@local
9dd66d08-89e4-4c91-a389-649b9c6940de 7.查询是否连接好
A区域 [root@ceph2111 ceph]# rbd --cluster local mirror pool info
Mode: pool
Peers:
UUID NAME CLIENT
d79c69c5-5fac-4bcb-8e93-28a18994d637 remote client.admin
[root@ceph2111 ceph]# rbd --cluster remote mirror pool info
Mode: pool
Peers:
UUID NAME CLIENT
9dd66d08-89e4-4c91-a389-649b9c6940de local client.admin 如果需要删除
rbd mirror pool peer remove {pool-name} {peer-uuid} 执行
1. rbd --cluster local mirror pool peer remove image-pool uuid
2. rbd --cluster remote mirror pool peer remove image-pool uuid 8.验证是否成功 A区域
[root@ceph2111 ceph]# rbd create test2111 --size 400 开启tbd-mirror pool enable 功能 [root@ceph2111 ceph]# rbd-mirror pool enable
[root@ceph2111 ceph]# rbd ls
test111
test2111
[root@ceph2111 ceph]# B区域
[root@ceph111 ceph]# rbd create test111 --size 400
[root@ceph111 ceph]# rbd ls [root@ceph111 ceph]# rbd-mirror pool enable
[root@ceph111 ceph]# rbd ls
test111
test2111 9.备注镜像的升级与降级 1. ceph]# rbd --cluster local mirror image demote rbd/test111
2. ceph]# rbd --cluster local mirror image promote rbd/test111
3. ceph]# rbd --cluster local mirror image promote rbd/test111
4. rbd: error promoting image to primary
5. 2016-03-30 23:35:13.477096 7ffa50a3dc00 -1 librbd: image is already primary

Ceph集群rbd-mirror A、B区域备份实施方案的更多相关文章

  1. 分布式存储系统之Ceph集群RBD基础使用

    前文我们了解了Ceph集群cephx认证和授权相关话题,回顾请参考https://www.cnblogs.com/qiuhom-1874/p/16748149.html:今天我们来聊一聊ceph集群的 ...

  2. CEPH集群RBD快照创建、恢复、删除、克隆(转)

    Ceph支持一个非常好的特性,以COW(写时复制)的方式从RBD快照创建克隆,在Ceph中被称为快照分层.分层特性允许用户创建多个CEPH RBD克隆实例.这些特性应用于OpenStack等云平台中 ...

  3. CEPH-2:rbd功能详解及普通用户应用ceph集群

    ceph集群rbd使用详解 一个完整的ceph集群,可以提供块存储.文件系统和对象存储. 本节主要介绍rbd存储功能如何灵活的使用,集群背景: $ ceph -s cluster: id: 53717 ...

  4. CEPH集群操作入门--配置

      参考文档:CEPH官网集群操作文档   概述 Ceph存储集群是所有Ceph部署的基础. 基于RADOS,Ceph存储集群由两种类型的守护进程组成:Ceph OSD守护进程(OSD)将数据作为对象 ...

  5. Ubuntu 18.04.5 LTS Ceph集群之 cephx 认证及使用普通用户挂载RBD和CephFS

    1.cephx认证和授权 1.1 CephX认证机制 Ceph使用cephx协议对客户端进行身份认证: 1.每个MON都可以对客户端进行身份验正并分发密钥, 不存在单点故障和性能瓶颈 2. MON会返 ...

  6. 008 Ceph集群数据同步

    介绍,目前已经创建一个名为ceph的Ceph集群,和一个backup(单节点)Ceph集群,是的这两个集群的数据可以同步,做备份恢复功能 一.配置集群的相互访问 1.1 安装rbd mirror rb ...

  7. CentOS 7 搭建 Ceph 集群(nautilus 版本)

    搭建 Ceph 分布式集群( nautilus 版本 ) 一.服务器环境说明 主机名 角色 IP地址 ceph-admin ceph-deploy 192.168.92.21 ceph-node1 m ...

  8. ceph-deploy离线部署ceph集群及报错解决FAQ

    ceph-deploy部署ceph集群 环境介绍 主机名 ip地址 操作系统 角色 备注 ceph-node1 10.153.204.13 Centos7.6 mon.osd.mds.mgr.rgw. ...

  9. 分布式存储系统之Ceph集群存储池、PG 与 CRUSH

    前文我们了解了ceph集群状态获取常用命令以及通过ceph daemon.ceph tell动态配置ceph组件.ceph.conf配置文件相关格式的说明等,回顾请参考https://www.cnbl ...

随机推荐

  1. 查看tomcat启动文件都干点啥---Catalina.java

    在前一章查看tomcat启动文件都干点啥---Bootstrap.java中我们得出结论,在Bootstrap中通过反射调用Catalina类中的getServer,start,stop,stopSe ...

  2. php cli模式下调试

    //设置内存大小 ini_set('memory_limit','512M'); //打开日志 ini_set('log_errors', 'On'); //定向日志记录文件 ini_set('err ...

  3. 巧用chrome开发者工具

    说明:截图中的Chrome版本为52,不同版本可能略有区别. 常用设置 开发时消除静态资源缓存不能立刻更新的困扰,勾选Disable cache即可 切换颜色显示格式 修改默认颜色显示格式,在Sett ...

  4. quick-coco2d下的事件

    qucik下的事件机制很简洁,也很简单,能够处理大多数的自定义时间,我们新建一个类型,然后用扩展的方式实现事件,之前quick的文档上很详细,但是很悲哀,傻逼的的网站现在是404,记下来,怕到时候忘记 ...

  5. recovery怎么刷机,recovery是什么意思

    转自:http://www.3lian.com/edu/2012/04-11/25212.html Recovery是什么意思? recovery翻译过来就是“恢复”的意思,是开机后通过特殊按键组合( ...

  6. 利用 LeakCanary 来检查 Android 内存泄漏

    前言 你被概率性的 OOM 困扰么?有时候,OOM 像幽灵一样,挥之不去,可真想把它揪出来时,又捉之不着.或许,是时候用 LeakCanary 来诊断一下了.它是一个用来检查 Android 下内存泄 ...

  7. 进程间通信(IPC)介绍(转)

    进程间通信(IPC,InterProcess Communication)是指在不同进程之间传播或交换信息. IPC的方式通常有管道(包括无名管道和命名管道).消息队列.信号量.共享存储.Socket ...

  8. 统一建模语言(UML,Unified Modeling Language)

    Something about UML: 统一建模语言(UML,英语:Unified Modeling Language)是非专利的第三代建模和规约语言.UML是一种开放的方法,用于说明.可视化.构建 ...

  9. Oracle 中for update和for update nowait的区别

    http://www.cnblogs.com/quanweiru/archive/2012/11/09/2762223.html 1.for update 和 for update nowait 的区 ...

  10. 【深入JAVA EE】Spring配置文件解析

    在阅读的过程中有不论什么问题,欢迎一起交流 邮箱:1494713801@qq.com    QQ:1494713801 一.Spring头信息 Spring配置文件的头部信息通常是固定不变的.但每个标 ...