mongodb的sharding集群由以下3个服务组成:
Shards  Server: 每个shard由一个或多个mongod进程组成,用于存储数据
Config  Server: 用于存储集群的Metadata信息,包括每个Shard的信息和chunks信息
Route   Server: 用于提供路由服务,由Client连接,使整个Cluster看起来像单个DB服务器
另外,Chunks是指MongoDB中一段连续的数据块,默认大小是200M,一个Chunk位于其中一台Shard服务器上
下面,搭建一个Cluster,它由4台服务器组成,包括3个Shard,3个Config,1个Route
 
 配置config
/usr/local/mongodb/bin/mongod --configsvr --dbpath /usr/local/mongodb/config1 --port --logpath=/usr/local/mongodb/config1/config.log --replSet configs & /usr/local/mongodb/bin/mongod --configsvr --dbpath /usr/local/mongodb/config2 --port --logpath=/usr/local/mongodb/config2/config.log --replSet configs & /usr/local/mongodb/bin/mongod --configsvr --dbpath /usr/local/mongodb/config3 --port --logpath=/usr/local/mongodb/config3/config.log --replSet configs & rs.initiate({
_id:"configs", // replSet指定的名称
members:[{
_id:,
host:"127.0.0.1:28001" // 主节点ip与端口
}]
}) rs.add("127.0.0.1:28002");
rs.add("127.0.0.1:28003"); 配置路由设置
/usr/local/mongodb/bin/mongos --port --configdb="configs/127.0.0.1:28001,127.0.0.1:28002,127.0.0.1:28003" --logpath /usr/local/mongodb/mongos/mongos.log 配置sharding 节点
/usr/local/mongodb/bin/mongod -shardsvr -dbpath=/usr/local/mongodb/c1 -port -logpath=/usr/local/mongodb/c1/.log &
/usr/local/mongodb/bin/mongod -shardsvr -dbpath=/usr/local/mongodb/c2 -port -logpath=/usr/local/mongodb/c2/.log &
/usr/local/mongodb/bin/mongod -shardsvr -dbpath=/usr/local/mongodb/c3 -port -logpath=/usr/local/mongodb/c3/.log & 路由配置
/usr/local/mongodb/bin/mongo --port
db.runCommand({ addshard:"127.0.0.1:29017" })
db.runCommand({ addshard:"127.0.0.1:29018" })
db.runCommand({ addshard:"127.0.0.1:29019" }) db.runCommand({"enablesharding": "test"}) 对chunk的移动
db.adminCommand({moveChunk : "test.yhl", find : {id:{$gt:}}, to : "shard0002"});

修改chunk大小
mongos> db.settings.save( { _id:"chunksize", value: 1 } )

配置Sharding:
登录到mongos,添加Shard节点
在为collection分片前,必须让该集合所属的数据库具有分片的功能,一旦你开启了某个数据库的分片,MongoDB会分配一个主片。

./bin/mongo --port 40000
> use admin #此操作需要连接admin库
> db.runCommand({ addshard:"localhost:27017" }) #添加 Shard Server 或者用 sh.addshard()命令来添加,下同;
{ "shardAdded" : "shard0000", "ok" : 1 }
> db.runCommand({ addshard:"localhost:27018" })
{ "shardAdded" : "shard0001", "ok" : 1 } > db.runCommand({ enablesharding:"test" }) #设置分片存储的数据库
{ "ok" : 1 } > db.runCommand({ shardcollection: "test.users", key: { id:1 }})
# 设置分片的集合名称。且必须指定Shard Key,系统会自动创建索引,然后根据这个shard Key来计算。
# 实际中尤其不要轻易选择自增_id作为片键,片键也可以是多个字段的组合。
{ "collectionsharded" : "test.users", "ok" : 1 } > sh.status(); #查看片的状态
> printShardingStatus(db.getSisterDB("config"),1); # 查看片状态(完整版);
> db.stats(); # 查看所有的分片服务器状态
#查看分片后的情况
> use config
switched to db config
> db.databases.find()
{ "_id" : "test", "primary" : "shard0000", "partitioned" : true }
> db.chunks.find()
{ "_id" : "test.user-_id_MinKey", "ns" : "test.user", "min" : { "_id" : { "$minKey" : 1 } }, "max" : { "_id" : { "$maxKey" : 1 } }, "shard" : "shard0000", "lastmod" : Timestamp(1, 0), "lastmodEpoch" : ObjectId("5677cc4015fdf4f1ffbb15bd") }

如上建库的时候要登陆mongos来建,建好一个库,mongos来自动给你分配是建立在哪个shard上,但你也可以运行命令来把它移动到别的shard上。例如:在mongos上建立了一个库叫recsys0库。运行db.printShardingStatus()命令我们可以看到这个recsys0是建到了哪个shard,如果建到了shard4,而你想改到shard1,那么可以运行命令,db.runCommand( { movePrimary: “recsys0”, to: “shard1” }),这个库就会从shard4挪到shard1上。可通过db.printShardingStatus()再次检查。

删除分片:
db.runCommand({"removeshard":"192.168.245.131:27017"})

对已存在数据分片:
假设现在存在一个数据很大的children数据库,在192.168.245.129:27019上面,需要将这些数据进行分片。
1)连接到mongos实例,将192.168.245.129:27019添加到分片集群中。

mongos> sh.addShard("192.168.245.129:27019")
{ "shardAdded" : "shard0004", "ok" : 1 }

注意集群分片中不能与新添加的分片中有相同的数据库,否则会报错。

在需要的数据库上开启分片功能

mongos> sh.enableSharding("children")
{ "ok" : 1 }

对children数据库下的集合进行分片。注意:对已存在的数据进行分片,一定要保证shard key字段是索引。
mongos> sh.shardCollection("children.children",{"user_id":1})

shard key:
以上分片都使用了MongoDB本身提供了Auto-Sharding的功能,Auto-Sharding的一些缺陷:

  • 如果选择了单一的Sharding Key,会造成分片不均衡,无法充分利用每个分片集群的能力。为了弥补单一Sharding Key的缺点,引入复合Sharing Key,然而复合Sharding Key会造成性能的消耗。
  • count值计算不准确的问题,数据Chunk在分片之间迁移时,特定数据可能会被计算2次,造成count值计算偏大的问题;
  • Balancer的稳定性&智能性问题,Sharing的迁移发生时间不确定,一旦发生数据迁移会造成整个系统的吞吐量急剧下降。为了应对Sharding迁移的不确定性,我们可以强制指定在业务访问的低峰期做Sharding迁移。

如何选择shard key:
参考1
参考2

手动分片:

由程序来判断:
关闭自动分片:sh.stopBalancer()
只是在4个不同的shard上建立4个库。至于读写操作会对应哪个库,由程序来判断。

MongoDB还带一种手动预分片:
用split命令对空集合进行手动的切分

mongos> use admin
switched to db admin
mongos> db.runCommand({"enablesharding":"myapp"})
mongos> db.runCommand({"shardcollection":"myapp.users","key":{"email":1}})
for ( var x=97; x<97+26; x++ ){
for( var y=97; y<97+26; y+=6 ) {
var prefix = String.fromCharCode(x) + String.fromCharCode(y);
db.runCommand( { split : "myapp.users" , middle : { email : prefix } } );
}
}

利用moveChunk命令手动的移动分割的块:

 var shServer = [ "sh0.example.net", "sh1.example.net", "sh2.example.net", "sh3.example.net", "sh4.example.net" ];
for ( var x=97; x<97+26; x++ ){
for( var y=97; y<97+26; y+=6 ) {
var prefix = String.fromCharCode(x) + String.fromCharCode(y);
db.adminCommand({moveChunk : "myapp.users", find : {email : prefix}, to : shServer[(y-97)/6]})
}
}

每个分片设置成副本集:

作者:bluebule
链接:https://www.jianshu.com/p/baed80df9300
来源:简书
简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。

Mongodb Sharding 集群配置的更多相关文章

  1. Mongo 3.6.1版本Sharding集群配置

    Mongo低版本和高版本的sharding集群配置,细节不太一样.目前网上的配置文档大都是针对低版本的.本人在配置3.6.1版本的mongosharding集群的过程中,碰到不少问题,官方文档没有直观 ...

  2. mongoDB Replica集群配置(1主+1从+1仲裁)

    1.mongoDB节点介绍 主节点(Primary) 在复制集中,主节点是唯一能够接收写请求的节点.MongoDB在主节点进行写操作,并将这些操作记录到主节点的oplog中.而从节点将会从oplog复 ...

  3. mongodb sharding集群搭建

    创建虚拟机,如果是使用copy的方式安装系统,记得修改机器名,否则所有的机器名称都一样,会造成安装失败 同时关闭掉防火墙,将所有的机器的时间调成一致,master和slave的heartbeat间隔不 ...

  4. MongoDB 分片集群配置

    本文测试环境为 CentOS 7 和 MongoDB 最新版 (4.0.12) 使用 root 操作 (实际操作中使用非 root 账户启动报错) 零.服务器分配 服务器 102 服务器 103 服务 ...

  5. 【华为云技术分享】MongoDB经典故障系列五:sharding集群执行sh.stopBalancer()命令被卡住怎么办?

    [摘要] MongoDB sharding集群执行sh.stopBalancer()命令时被卡住怎么办?别慌,华为云数据库来给您支招,收下这份方案指南,让您分分钟远离被自建MongoDB数据库支配的恐 ...

  6. elasticsearch与mongodb分布式集群环境下数据同步

    1.ElasticSearch是什么 ElasticSearch 是一个基于Lucene构建的开源.分布式,RESTful搜索引擎.它的服务是为具有数据库和Web前端的应用程序提供附加的组件(即可搜索 ...

  7. MongoDB高可用集群配置的方案

    >>高可用集群的解决方案 高可用性即HA(High Availability)指的是通过尽量缩短因日常维护操作(计划)和突发的系统崩溃(非计划)所导致的停机时间,以提高系统和应用的可用性. ...

  8. Mongodb中Sharding集群

    随着mongodb数据量的增多,可能会达到单个节点的存储能力限制,以及application较大的访问量也会导致单个节点无法承担,所以此时需要构建集群环境,并通过sharding方案将整个数据集拆分成 ...

  9. 网易云MongoDB分片集群(Sharding)服务已上线

    此文已由作者温正湖授权网易云社区发布. 欢迎访问网易云社区,了解更多网易技术产品运营经验. MongoDB sharding cluster(分片集群)是MongoDB提供的数据在线水平扩展方案,包括 ...

随机推荐

  1. KAFKA:如何做到1秒发布百万级条消息

    http://rdcqii.hundsun.com/portal/article/709.html KAFKA是分布式发布-订阅消息系统,是一个分布式的,可划分的,冗余备份的持久性的日志服务.它主要用 ...

  2. Linux下 导出postgrelSql 数据库

    登陆postgrel su - postgres 进入postgrelsql 安装目录下的bin目录 cd/usr/pgsql-11/bin 执行导出命令 ./pg_dump -U username ...

  3. [LeetCode] 556. Next Greater Element III 下一个较大的元素 III

    Given a positive 32-bit integer n, you need to find the smallest 32-bit integer which has exactly th ...

  4. [LeetCode] 656. Coin Path 硬币路径

    Given an array A (index starts at 1) consisting of N integers: A1, A2, ..., AN and an integer B. The ...

  5. Oracle-关于Oracle.ManagedDataAccess

    今天调用webservice的时候,运行程序后开始报错以下的错误信息 “/”应用程序中的服务器错误. 未能加载文件或程序集“Oracle.DataAccess”或它的某一个依赖项.试图加载格式不正确的 ...

  6. 使用transform后z-index失效的解决方法

    transform作用的元素增加translateZ,父级元素增加 transform-style: preserve-3d; <div class="father"> ...

  7. 面试官:知道你的接口QPS是多少么?(转)

    面试官:知道你的接口QPS是多少么? 原创: 孤独烟 孤独烟 9月24日 引言 大家好,我是渣渣烟. 我又来水文章了.这篇文章我个人感觉含金量不是太大,大概5分钟左右就能看完!其实大家都知道,我不爱写 ...

  8. dubbo 使用、原理、接口请求,都经历了什么过程

    [dubbo官网文档]http://dubbo.apache.org/zh-cn/docs/user/quick-start.html

  9. vue总结的知识点

    1.Vue生命周期钩子,都是干嘛用的? Vue实例从创建到销毁的过程,就是生命周期.Vue的生命周期包括:开始创建.初始化数据.编译模板.挂载Dom.渲染→更新→渲染.卸载等一系列过程.在Vue的整个 ...

  10. 备份数据库中的某个表的数据报错Statement violates GTID consistency

    1.错误描述 执行CREATE TABLE tig_pairs_20190521 AS SELECT *FROM tig_pairs报错: 1 queries executed, 0 success, ...