Yahoo! Cloud Serving Benchmark (YCSB) 是一个Java语言实现的用于云端或者服务器端的数据库性能测试工具,其内部涵盖了常见的NoSQL数据库产品,如Cassandra、MongoDB、HBase、Redis等等。

这个框架具有很好的可扩展性,可以通过配置文件来指定需要进行什么样的workload的测试,比如读写比例多少,每条记录多大,每个字段多大,并发数多大,进行随机选择使用的分布(比如读一条数据的时候)等。

wget https://github.com/brianfrankcooper/YCSB/releases/download/0.17.0/ycsb-mongodb-binding-0.17.0.tar.gz

tar xvfz ycsb-mongodb-binding-0.17.0.tar.gz

chown -R mongod:mongod ycsb-mongodb-binding-0.17.0

默认的6种测试场景如下:

1)workloada:读写均衡型,50%/50%,Reads/Writes

2)workloadb:读多写少型,95%/5%,Reads/Writes

3)workloadc:只读型,100%,Reads

4)workloadd:读最近写入记录型,95%/5%,Reads/insert

5)workloade:扫描小区间型,95%/5%,scan/insert

6)workloadf:读写入记录均衡型,50%/50%,Reads/insert

■ 为指定的库和表指定hash分片

sh.enableSharding("testdb")

sh.shardCollection("testdb.test1", {_id:"hashed"})

■ 测试模型,即workload模型

workload id |workload desc                   |recordcount
------------|--------------------------------|----------
workload_s6 |60% read, 40% insert |100万

与研发负责人沟通,本次测试的业务模型采用如上的s6模型,比较接近业务真实状态。

■ 测试指标

RunTime

Throughput

AverageLatency

评判指标:通过调整线程数,直到发现ops不再增加而平均响应时间继续增加,或者测试主机、集群节点的cpu负荷达到一定程度

■ workload_s6

cat > workloads/workload_s6 << EOF
recordcount=1000000
operationcount=1000000
workload=site.ycsb.workloads.CoreWorkload
readallfields=true
readproportion=0.6
updateproportion=0
scanproportion=0
insertproportion=0.4
requestdistribution=zipfian
EOF THREADS=100
bin/ycsb load mongodb -threads ${THREADS} -P workloads/workload_s6 -p fieldcount=1 -p fieldlength=1024 -p clientbuffering=true -p table=test1 -p mongodb.url=mongodb://admin:'password'@node1:20000,node2:20000,node3:20000/testdb?authSource=admin 1>workload_s6_load_${THREADS}.result 2>workload_s6_load.log&
tail -100f workload_s6_load_${THREADS}.result bin/ycsb run mongodb -threads ${THREADS} -P workloads/workload_s6 -p fieldcount=1 -p fieldlength=1024 -p clientbuffering=true -p table=test1 -p mongodb.url=mongodb://admin:'password'@node1:20000,node2:20000,node3:20000/testdb?authSource=admin 1>workload_s6_run_${THREADS}.result 2>workload_s6_run.log&
tail -100f workload_s6_run_${THREADS}.result

使用如上的脚本,调整THREADS参数,反复测试,分析如下。

■ 分片集群性能测试数据统计分析

 workload  |threads| rows   |RunTime|Throughput||Operations|AverageLatency||Operations|AverageLatency
| | | (s) | || (Read) | (us) || (Insert) | (us)
-----------|-------|--------|-------|----------||----------|--------------||----------|--------------
| 1 |1000000 | 1199 | 833 || 599849 | 1151 || 400151 | 1262
| 10 |1000000 | 145 | 6916 || 600565 | 1486 || 399435 | 1274
workload_s6| 20 |1000000 | 71 | 14097 || 598887 | 1357 || 401113 | 1377
| 20 |1000000 | 105 | 9472 || 600002 | 1506 || 399998 | 1409
| 30 |1000000 | 52 | 19102 || 599719 | 1495 || 400281 | 1521
| 50 |1000000 | 52 | 19126 || 600574 | 2833 || 399426 | 1835
| 50 |1000000 | 151 | 6596 || 600413 | 8572 || 399587 | 2526
| 50 |1000000 | 173 | 5758 || 600193 | 9140 || 399807 | 2600
| 80 |1000000 | 69 | 14470 || 599662 | 4440 || 400338 | 2553
| 100 |1000000 | 42 | 23628 || 599939 | 3981 || 400061 | 3827
| 150 |1000000 | 141 | 7066 || 599882 | 6373 || 400118 | 4007
| 150 |1000000 | 45 | 21845 || 601056 | 5593 || 398944 | 4284
| 200 |1000000 | 47 | 20879 || 599388 | 6972 || 400612 | 5275
| 300 |1000000 | 81 | 12336 || 599795 | 10121 || 400205 | 8441
测试表明,开20并发时,集群各个节点(16c)的cpu负荷比较均衡,空闲均为50%-60%左右;
开50并发准备阶段时(全部操作是100%插入100万数据),集群各节点cpu空闲已经较低,部分降至20%以内,因为50并发平均每节点超过16线程,已经超过cpu负荷极限,只是由于是虚机,cpu超限使用了;
开50并发60%读40%写时,集群各节点cpu空闲明显比较均衡,基本空闲60%左右;
开200、300并发时,测试主机的cpu空闲瞬时达到20%左右,集群节点1的cpu空闲5%左右,node2、3分别是25%、40%,可见3节点集群的并发能力基本达到了极限。可见,开100并发时,集群基本达到了最佳性能。
如果不启用分片,测试如下:
workload |threads| rows |RunTime|Throughput||Operations|AverageLatency||Operations|AverageLatency
| | | (s) | || (Read) | (us) || (Insert) | (us)
-----------|-------|--------|-------|----------||----------|--------------||----------|--------------
| 100 |1000000 | 189 | 5279 || 600016 | 7094 || 399984 | 2572
workload_s6| 100 |1000000 | 38 | 26168 || 600205 | 4076 || 399795 | 2696
| 150 |1000000 | 39 | 25371 || 600090 | 5650 || 399910 | 5884
| 150 |1000000 | 85 | 11764 || 599122 | 6058 || 400878 | 3877
此次不分片测试表明,大并发时,集群节点的cpu负荷主要集中在数据分片的主节点上,从节点cpu消耗明显低很多,而仲裁节点cpu消耗更小,此时数据统计类似如下:
'shard2/node2:27002,node3:27002': {
db: 'testdb',
collections: 1,
views: 0,
objects: 1399984,

可见数据落到了shard2 server,根据之前的规划,主节点是node2,从节点是node3,仲裁节点是node1,shard2的数据实际存储在了node2、3。

100-150并发时,集群的整体性能表现稳定,并没有下降,说明此时即使不使用分片,集群也能承受这个压力。

但是可以预见,一旦并发数大到一定程度,肯定会导致明显的性能下降,此时就需启用3个shard分片,可充分利用集群3个节点的io及cpu能力,把压力均衡到各个节点。

■ 测试结论

总结如上可见,100-200并发时,不管分片与否,排除虚机io不稳定情况,集群吞吐量基本可以达到每秒20000次以上,针对100万表的100万次操作,60%读40%插入,总体耗时在40秒左右,每次操作平均时延均在10ms以内,完全可以满足业务需求。

当然,如果能力需求压力较大,则务必为相关的collection设置分片策略,以充分利用多节点的处理能力。

另必须说明,如果不启用并发做大数据量操作,由于没有充分利用集群多节点多cpu多存储的处理能力,务必会导致耗时较长的情况,实际监测也能看到单线程每秒写入仅1MB-2MB,远低于大并发时的每秒20MB-30MB,以上大并发时每次操作的平均延时已经表明了集群的处理能力是没有问题的,因此研发及实施人员务必特别关注这一点,确保大量操作务必启用多并发,必要时启用多分片。

高可用mongodb集群(分片+副本):性能测试的更多相关文章

  1. 搭建高可用mongodb集群—— 分片

    从节点每个上面的数据都是对数据库全量拷贝,从节点压力会不会过大? 数据压力大到机器支撑不了的时候能否做到自动扩展? 在系统早期,数据量还小的时候不会引起太大的问题,但是随着数据量持续增多,后续迟早会出 ...

  2. 搭建高可用mongodb集群(四)—— 分片(经典)

    转自:http://www.lanceyan.com/tech/arch/mongodb_shard1.html 按照上一节中<搭建高可用mongodb集群(三)-- 深入副本集>搭建后还 ...

  3. [转]搭建高可用mongodb集群(四)—— 分片

    按照上一节中<搭建高可用mongodb集群(三)—— 深入副本集>搭建后还有两个问题没有解决: 从节点每个上面的数据都是对数据库全量拷贝,从节点压力会不会过大? 数据压力大到机器支撑不了的 ...

  4. [转]搭建高可用mongodb集群(二)—— 副本集

    在上一篇文章<搭建高可用MongoDB集群(一)——配置MongoDB> 提到了几个问题还没有解决. 主节点挂了能否自动切换连接?目前需要手工切换. 主节点的读写压力过大如何解决? 从节点 ...

  5. 搭建高可用mongodb集群(四)—— 分片

    按照上一节中<搭建高可用mongodb集群(三)—— 深入副本集>搭建后还有两个问题没有解决: 从节点每个上面的数据都是对数据库全量拷贝,从节点压力会不会过大? 数据压力大到机器支撑不了的 ...

  6. 搭建高可用mongodb集群(三)—— 深入副本集内部机制

    在上一篇文章<搭建高可用mongodb集群(二)—— 副本集> 介绍了副本集的配置,这篇文章深入研究一下副本集的内部机制.还是带着副本集的问题来看吧! 副本集故障转移,主节点是如何选举的? ...

  7. 搭建高可用mongodb集群(二)—— 副本集

    在上一篇文章<搭建高可用MongoDB集群(一)——配置MongoDB> 提到了几个问题还没有解决. 主节点挂了能否自动切换连接?目前需要手工切换. 主节点的读写压力过大如何解决? 从节点 ...

  8. 搭建高可用mongodb集群(四)—— 分片

    按照上一节中<搭建高可用mongodb集群(三)-- 深入副本集>搭建后还有两个问题没有解决: 从节点每个上面的数据都是对数据库全量拷贝,从节点压力会不会过大? 数据压力大到机器支撑不了的 ...

  9. 搭建高可用mongodb集群(三)—— 深入副本集内部机制

    在上一篇文章<搭建高可用mongodb集群(二)-- 副本集> 介绍了副本集的配置,这篇文章深入研究一下副本集的内部机制.还是带着副本集的问题来看吧! 副本集故障转移,主节点是如何选举的? ...

  10. 搭建高可用mongodb集群(二)—— 副本集

    在上一篇文章<搭建高可用MongoDB集群(一)--配置MongoDB> 提到了几个问题还没有解决. 主节点挂了能否自动切换连接?目前需要手工切换. 主节点的读写压力过大如何解决? 从节点 ...

随机推荐

  1. FPGA加速技术详解:从原理到应用

    目录 FPGA加速技术详解:从原理到应用 背景介绍: 随着计算机性能的不断提高和运算能力的增强,GPU.CPU等高性能计算硬件已经可以满足大部分计算任务的需求.然而,对于大规模.复杂的实时数据处理和高 ...

  2. Mybatis-plus自定义Sql注入器

    最近在学习mybatis-plus,知道了在mp中通过AbstractSqlInjector将BaseMapper中的方法注入到了Mybatis容器,这样这些方法才可以正常执行. 下面是一个关系图 那 ...

  3. 【后端面经-Java】AQS详解

    目录 1. AQS是什么? 2. AQS核心思想 2.1 基本框架 2.1.1 资源state 2.1.2 CLH双向队列 2.2 AQS模板 3. 源码分析 3.1 acquire(int) 3.1 ...

  4. vue和servlet 前后端分离 (复习)

    一.vue复习 1.vue的使用步骤: (1)导入vue.js (2)创建除body以外最大的div标签,给定id值 (3)创建vue对象 new Vue({ el:"#app", ...

  5. C语言基础--逻辑判断和循环

    目录 一.储存标识符 1.auto 2.register 3.static 4.const 二.运算符 1.逻辑运算符 2.位运算符 3.运算符 4.三元运算符 三.选择结构 1.if判断 1.1 i ...

  6. chrome事件循环的自问自答

    chrome事件循环的自问自答 目录 1. 宏任务有哪些? 2. 微任务有哪些? 3. dom渲染是事件循环的一部分么? 4. requestAnimationFrame的回调是宏任务还是微任务? 5 ...

  7. Html转换PDF(Java实用版)

    前言: 在工作当中,遇到了需要把HTML页面转化为PDF文档,有很多中实现,如下进行一个对比,大家个借鉴去进行使用 各实现对比表 于Windows平台进行测试: 此博客仅基于IText和基于WKHtm ...

  8. Vue: 配置axios基准路径并使用

    配置 main.js文件修改 在main.js中进行如下修改 // 设置axios全局api import axios from 'axios' // 请求基准路径的配置 后台 axios.defau ...

  9. Django reset framework: 序列化

    序列化与反序列化 将模型转换为json 称之为 序列化 将json转换为模型 称之为 反序列化 何时进行序列化与反序列化 序列化:当后端将数据库中信息取出返回给前端时,要进行序列化操作 反序列化:当需 ...

  10. 如何将 dubbo filter 拦截器原理运用到日志拦截器中?

    业务背景 我们希望可以在使用日志拦截器时,定义属于自己的拦截器方法. 实现的方式有很多种,我们分别来看一下. 拓展阅读 java 注解结合 spring aop 实现自动输出日志 java 注解结合 ...