环境:

主机A:172.16.160.91

主机B:172.16.160.92

配置主机A

[root@master zhxf]# cat docker-compose.yml
version: '3'
services:
mongo_rs1:
image: mongo:3.4.4
container_name: mongo_rs1
volumes:
- /zhxf/mongo_rs1/:/mongodb
command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --master --autoresync
# command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --slave --source 172.16.160.92:27017 --autoresync
ulimits:
nproc: 65535
hostname: mongo_rs1
restart: always
ports:
- "27017:27017"
[root@master zhxf]# mkdir -p /zhxf/mongo_rs1/
[root@master zhxf]# chmod -R 777 /zhxf/mongo_rs1/

配置主机B

[root@slave1 zhxf]# cat docker-compose.yml
version: '3'
services:
mongo_rs2:
image: mongo:3.4.4
container_name: mongo_rs2
volumes:
- /zhxf/mongo_rs2/:/mongodb
command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --slave --source 172.16.160.91:27017 --autoresync
# command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --master --autoresync
ulimits:
nproc: 65535
hostname: mongo_rs2
restart: always
ports:
- "27017:27017"
[root@slave1 zhxf]# mkdir -p /zhxf/mongo_rs2/
[root@slave1 zhxf]# chmod -R 777 /zhxf/mongo_rs2/

启动主机A和B

[root@master zhxf]# docker-compose up -d
[root@slave1 zhxf]# docker-compose up -d

验证

主机A插入数据
[root@mysql_master zhxf]# docker-compose exec mongo_rs1 mongo
> db.test.insert({msg: "from master", ts: new Date()})
WriteResult({ "nInserted" : 1 })
> db.test.find()
{ "_id" : ObjectId("5a2106ff38ea44f69c1c8e69"), "msg" : "from master", "ts" : ISODate("2017-12-01T07:38:39.151Z") }
> exitexit
主机B不能插入数据,但可以看到主机A之前插入的数据,说明主从模式配置成功
[root@mysql_slave1 zhxf]# docker-compose exec mongo_rs2 mongo
> db.test.insert({msg: "from master", ts: new Date()})
WriteResult({ "writeError" : { "code" : 10107, "errmsg" : "not master" } })
> db.test.find()
Error: error: {
"ok" : 0,
"errmsg" : "not master and slaveOk=false",
"code" : 13435,
"codeName" : "NotMasterNoSlaveOk"
}
> rs.slaveOk()rs.slaveOk()
> db.test.find()
{ "_id" : ObjectId("5a2106ff38ea44f69c1c8e69"), "msg" : "from master", "ts" : ISODate("2017-12-01T07:38:39.151Z") }

上面主从模式配置成功了,下面开始测试主从切换

模拟主机A故障,如何启用主机B做为主模式

主机A

[root@mysql_master zhxf]# docker-compose down
Stopping mongo_rs1 ... done
Removing mongo_rs1 ... done
Removing network zhxf_default

主机B切换启动配置

[root@slave1 zhxf]# docker-compose down
Stopping mongo_rs2 ... done
Removing mongo_rs2 ... done
Removing network zhxf_default
[root@slave1 zhxf]# vi docker-compose.yml
version: '3'
services:
mongo_rs2:
image: mongo:3.4.4
container_name: mongo_rs2
volumes:
- /zhxf/mongo_rs2/:/mongodb
# command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --slave --source 172.16.160.91:27017 --autoresync
command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --master --autoresync
ulimits:
nproc: 65535
hostname: mongo_rs2
restart: always
ports:
- "27017:27017"
[root@slave1 zhxf]# docker-compose up -d
Creating network "zhxf_default" with the default driver
Creating mongo_rs2

验证

主机B变成主模式了,可以插入数据了
[root@mysql_slave1 zhxf]# docker-compose exec mongo_rs2 mongo
> db.test.find()
{ "_id" : ObjectId("5a2106ff38ea44f69c1c8e69"), "msg" : "from master", "ts" : ISODate("2017-12-01T07:38:39.151Z") }
> db.test.insert({msg: 'from slaver', ts: new Date()})
WriteResult({ "nInserted" : 1 })
> db.test.find()
{ "_id" : ObjectId("5a2106ff38ea44f69c1c8e69"), "msg" : "from master", "ts" : ISODate("2017-12-01T07:38:39.151Z") }
{ "_id" : ObjectId("5a21071638ea44f69c1c8e6a"), "msg" : "from master", "ts" : ISODate("2017-12-01T07:39:02.554Z") }

主机A故障恢复后,不能再做为主模式了,

需要修改启动配置为从模式后,再启动。

[root@mysql_master zhxf]# vi docker-compose.yml
version: '3'
services:
mongo_rs1:
image: mongo:3.4.4
container_name: mongo_rs1
volumes:
- /zhxf/mongo_rs1/:/mongodb
# command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --master --autoresync
command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --slave --source 172.16.160.92:27017 --autoresync
ulimits:
nproc: 65535
hostname: mongo_rs1
restart: always
ports:
- "27017:27017" 

验证

[root@mysql_master zhxf]# docker-compose up -d
Creating network "zhxf_default" with the default driver
Creating mongo_rs1
[root@mysql_master zhxf]# docker-compose exec mongo_rs1 mongo
> db.test.find()
Error: error: {
"ok" : 0,
"errmsg" : "not master and slaveOk=false",
"code" : 13435,
"codeName" : "NotMasterNoSlaveOk"
}
> rs.slaveOk()
> db.test.find()
{ "_id" : ObjectId("5a2106ff38ea44f69c1c8e69"), "msg" : "from master", "ts" : ISODate("2017-12-01T07:38:39.151Z") }
{ "_id" : ObjectId("5a21071638ea44f69c1c8e6a"), "msg" : "from master", "ts" : ISODate("2017-12-01T07:39:02.554Z") }
主机A变成从模式后,无法插入数据了。
> db.test.insert({msg: "from master", ts: new Date()})
WriteResult({ "writeError" : { "code" : 10107, "errmsg" : "not master" } })

  

其他配置参数含义

--quiet	# 安静输出
--port arg # 指定服务端口号,默认端口27017
--bind_ip arg # 绑定服务IP,若绑定127.0.0.1,则只能本机访问,不指定默认本地所有IP
--logpath arg # 指定MongoDB日志文件,注意是指定文件不是目录
--logappend # 使用追加的方式写日志
--pidfilepath arg # PID File 的完整路径,如果没有设置,则没有PID文件
--keyFile arg # 集群的私钥的完整路径,只对于Replica Set 架构有效
--unixSocketPrefix arg # UNIX域套接字替代目录,(默认为 /tmp)
--fork # 以守护进程的方式运行MongoDB,创建服务器进程
--auth # 启用验证
--cpu # 定期显示CPU的CPU利用率和iowait
--dbpath arg # 指定数据库路径
--diaglog arg # diaglog选项 0=off 1=W 2=R 3=both 7=W+some reads
--directoryperdb # 设置每个数据库将被保存在一个单独的目录
--journal # 启用日志选项,MongoDB的数据操作将会写入到journal文件夹的文件里
--journalOptions arg # 启用日志诊断选项
--ipv6 # 启用IPv6选项
--jsonp # 允许JSONP形式通过HTTP访问(有安全影响)
--maxConns arg # 最大同时连接数 默认2000
--noauth # 不启用验证
--nohttpinterface # 关闭http接口,默认关闭27018端口访问
--noprealloc # 禁用数据文件预分配(往往影响性能)
--noscripting # 禁用脚本引擎
--notablescan # 不允许表扫描
--nounixsocket # 禁用Unix套接字监听
--nssize arg (=16) # 设置信数据库.ns文件大小(MB)
--objcheck # 在收到客户数据,检查的有效性,
--profile arg # 档案参数 0=off 1=slow, 2=all
--quota # 限制每个数据库的文件数,设置默认为8
--quotaFiles arg # number of files allower per db, requires --quota
--rest # 开启简单的rest API
--repair # 修复所有数据库run repair on all dbs
--repairpath arg # 修复库生成的文件的目录,默认为目录名称dbpath
--slowms arg (=100) # value of slow for profile and console log
--smallfiles # 使用较小的默认文件
--syncdelay arg (=60) # 数据写入磁盘的时间秒数(0=never,不推荐)
--sysinfo # 打印一些诊断系统信息
--upgrade # 如果需要升级数据库
* Replicaton 参数 -------------------------------------------------------------------------------- --fastsync # 从一个dbpath里启用从库复制服务,该dbpath的数据库是主库的快照,可用于快速启用同步
--autoresync # 如果从库与主库同步数据差得多,自动重新同步;当发现从服务器的数据不是最新时,开始从主服务器请求同步数据
--oplogSize arg # 主节点的oplog日志大小,单位为M,建议设大点(更改oplog大小时,只需停主库,删除local.*,然后加--oplogSize=* 重新启动即可,*代表大小)
* 主/从参数 -------------------------------------------------------------------------------- --master # 主库模式
--slave # 从库模式
--source arg # 从库 端口号
--only arg # 指定单一的数据库复制
--slavedelay arg # 设置从库同步主库的延迟时间
* Replica set(副本集)选项: -------------------------------------------------------------------------------- --replSet arg # 设置副本集名称
* Sharding(分片)选项 -------------------------------------------------------------------------------- --configsvr # 声明这是一个集群的config服务,默认端口27019,默认目录/data/configdb
--shardsvr # 声明这是一个集群的分片,默认端口27018
--noMoveParanoia # 关闭偏执为moveChunk数据保存

  

 常用命令

> db.runCommand({"resync":1})   #如果发现主从不同步,从上手动同步
> db.runCommand({"isMaster":1}) #是主还是从 > db.printCollectionStats(); #查看各Collection状态
> db.printReplicationInfo(); #查看主从复制状态
> db.printSlaveReplicationInfo(); #查看主从复制信息 > use local;
switched to db local
> db.sources.find(); #在丛库上查询主库地址
> db.sources.remove({"host": "10.0.0.11:27001"}); #删除主库地址源
> db.sources.insert({"host": "10.0.0.11:27001"}); #添加新主库地址源

  

mongodb主从备份 和 手动主从切换的更多相关文章

  1. redis配置主从备份以及主备切换方案配置

    前提:redis中,主从切换场景中,没有绝对的主和从,只有初始化的主和从,然后当主down后,从就变成主了,而主即使连接上,也是从,不会变为主 1.redis-server的主备关系: 需要配置的机器 ...

  2. redis配置主从备份以及主备切换方案配置(转)

    版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明.本文链接:https://blog.csdn.net/gsying1474/article/de ...

  3. mysql主从备份+keepalived自动切换

    数据库这一层需要做到避免单点故障可以是主从备份和主主备份,主主备份可能有性能损耗和数据同步的问题.这里记录下主从备份, mysql进行备份之前确保mysql的版本是一样的,我这里用的都是mysql5. ...

  4. redis 主从备份自动切换+java代码实现类

    转载:http://blog.csdn.net/qq_23430789/article/details/52185706 目录(?)[-] redis-0sentinel实例之间的通讯端口 maste ...

  5. keepalived配置主从备份

    keepalived配置主从备份   keepalived是一个用于做双机热备(HA)的软件,常和haproxy联合起来做热备+负载均衡,达到高可用. 运行原理 keepalived通过选举(看服务器 ...

  6. Redis实战——redis主从备份和哨兵模式实践

    借鉴:http://redis.majunwei.com/topics/sentinel.html     https://blog.csdn.net/u011784767/article/detai ...

  7. mysql主从备份说明(win系统)

    1. 环境描述: 主机:192.168.2.201 从机:192.168.2.111 Mysql版本:5.7 2. 主机my.ini配置: log-bin=C:\mysqlback expire-lo ...

  8. 单机部署redis主从备份

    redis为了避免单点故障,也支持主从备份.个人在做主从备份的实验时,因为机器数量有限,一般非常少有多台机器做支撑. 本文就将叙述怎样在一台电脑上实现redis的主从备份. 同一台机器上部署多个red ...

  9. mysql数据库主从备份

    近期实验室总是不给通知的就停电,导致我们在不停的恢复服务.在某一个断电的过程中,发现我们的项目管理工具redmine的硬盘挂掉了..因为是部署在虚拟机上的,也没做冗余,数据就丢了..于是反思,我们的m ...

随机推荐

  1. MySQL redo log及recover过程浅析

    写在前面:作者水平有限,欢迎不吝赐教,一切以最新源码为准. InnoDB redo log 首先介绍下Innodb redo log是什么,为什么需要记录redo log,以及redo log的作用都 ...

  2. Hadoop中Comparator原理

    在前面的博文<Hadoop中WritableComparable 和 comparator>中,对于WritableComparator说的不够细致,下面说说具体的实现原理! 1.Writ ...

  3. redis cluster 使用中出现的问题

    问题一 redis.clients.jedis.exceptions.JedisClusterMaxRedirectionsException: Too many Cluster redirectio ...

  4. UVALive - 6436 —(DFS+思维)

    题意:n个点连成的生成树(n个点,n-1条边,点与点之间都连通),如果某个点在两点之间的路径上,那这个点的繁荣度就+1,问你在所有点中,最大繁荣度是多少?就比如上面的图中的C点,在A-B,A-D,A- ...

  5. handsontable-utilities

    搜索值 鼠标右键 讲了四个功能:1.row header是否可以右键(rowheader:true):2.删除右键列表的某些值(通过数组定义):3.自定义右键列表和功能(callback,item两个 ...

  6. CentOS 7安装OpenVPN

    命令很简单,但是网上似乎没资料,只有RHEL6以下的资料. 直接贴命令: 1 2 3 4 5 cd ~ wget http://swupdate.openvpn.org/as/openvpn-as-2 ...

  7. jenkins Build Flow job 输入参数获取和传递

    jenkins Build Flow job 输入参数获取和传递 如果设置Build Flow的job,怎样获取手工输入的参数. 1. 指定构建参数 job配置中,勾选"参数化构建" ...

  8. sql-修改每条数据的某一个字段的值

    update B set B.maildata =(select SUBSTRING(maildata,0,3) from basedata where basedata.cid = B.cid)+( ...

  9. IIS服务器添加网站

    1.添加IIS服务:对“我的电脑”右键,管理,点击服务和应用程序,如果下面没有”Internet Information Services(IIS)管理器“,打开控制面板,点击程序,启用或者关闭Win ...

  10. JPA之@GeneratedValue注解

    JPA的@GeneratedValue注解,在JPA中,@GeneratedValue注解存在的意义主要就是为一个实体生成一个唯一标识的主键(JPA要求每一个实体Entity,必须有且只有一个主键), ...