前言

关于bluestore的db应该预留多少空间,网上有很多资料

如果采用默认的

write_buffer_size=268435456

大小的话

那么几个rocksdb的数据等级是

L0: in memory
L1: 256MB
L2: 2.56 GB
L3: 25.6 GB
L4: 256 GB

设置L4那么大的ssd可以给一个osd使用有点不划算,那么空间一般计算就是L1+L2+L3将近30GB

这个可以参考下面的文章

https://blog.csdn.net/NewTyun/article/details/103379694

关于block.db大小调整,只需为所有Bluestore OSD保留30 GB

那么这个大小对不对,如果你直接参考30GB这个,并且按照常规的去分区来说,就会带来问题了,我们看下具体什么问题

实际测试验证

parted -s /dev/sdb mkpart primaru 1 31G

上面的命令已经放大了1GB了,但是实际上还是不行

[root@lab102 ~]# ceph daemon osd.0 perf dump|grep bluefs -A 10
"bluefs": {
"gift_bytes": 0,
"reclaim_bytes": 0,
"db_total_bytes": 30999044096,
"db_used_bytes": 3258966016,
"wal_total_bytes": 1999630336,
"wal_used_bytes": 501215232,
"slow_total_bytes": 160000114688,
"slow_used_bytes": 7837319168,
"num_files": 194,
"log_bytes": 10485760,

上面是我测试环境记录的值,db只使用了3.2G实际上已经开始使用slow 了,所以这个大小实际上不满足的我的预设的,这个跟parted命令分区的GB转换也存在的一定的关系

看下parted的问题

[root@lab102 ~]# parted -s  /dev/sdf mkpart primary 1 1GB
[root@lab102 ~]# parted -s /dev/sdf print
Model: Intel RMS25CB080 (scsi)
Disk /dev/sdf: 4000GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags: Number Start End Size File system Name Flags
1 1049kB 1000MB 999MB primary

可以看到上面创建1GB的时候实际上只创建了999MB,加上我指定的从1MB开始,实际上这个地方设置是按1000进制处理容量的,而对容量的需求的是真正的1024的去算的,这个地方就存在误差了

那么我们简单点处理,就是直接放大到35GB即可

parted -s  /dev/sdf mkpart primary 1 35GB

按这个容量设置的,能够保证上面的L3没有先满的时候不会提前溢出了

红帽的官方的建议是留1T 40GB左右,而suse是建议db大小为64GB

https://documentation.suse.com/zh-tw/ses/6/single-html/ses-deployment/index.html#:~:text=如需BlueStore 的詳細,使用單獨的分割區。

https://access.redhat.com/documentation/en-us/red_hat_ceph_storage/4/html/administration_guide/osd-bluestore

如果没有调整write_buffer_size的情况下,建议是35GB,40GB或者64GB,这个都存在一些放大设置,如果磁盘空间足够的情况下,多分一点也没什么关系的,尽量避免转换不正确带来的未知的降速

WAL大小,suse建议是4GB的

测试模型构建

准备一个4TB的sata盘,准备一个db分区,准备一个wal分区(测试环境为2GB)

db分区设置为你需要的大小,上面的环境当中,我测试了db 30GB和35GB两组大小的情况

设置35GB写入600万文件的时候osd的db情况如下:

ceph daemon osd.0 perf dump|grep bluefs -A 10
"bluefs": {
"gift_bytes": 0,
"reclaim_bytes": 0,
"db_total_bytes": 34999361536,
"db_used_bytes": 10392428544,
"wal_total_bytes": 1999630336,
"wal_used_bytes": 492826624,
"slow_total_bytes": 160000114688,
"slow_used_bytes": 0,
"num_files": 177,
"log_bytes": 3944448,

创建osd的命令

ceph-deploy osd create --data /dev/sdc1 --block-db /dev/sdb1  --block-wal /dev/sdb2 lab102

创建一个rgw网关

然后用cosbench往网关打数据

200个worker,64KB的文件,写入600万文件

测试一轮的时间大概为2小时就可以复现上面的情况,测试过程还带出了另外的一个问题

rgw_dynamic_resharding = true

这个动态分片过程中会有一定的概率阻塞住请求的,通过cosbench里面的压测图形也可以看到分片后的性能比没分片是好很多的,所以如果抢时间的话

最好是关闭动态分片,设置好需要的分片数目

测试完需要改db的时候,直接删存储池,然后重新创建即可,推掉的操作也很快的

总结

网上的文章都是用来参考的,实际是一定需要去复测验证的,一般分享的文章也不会细化到一个parted的命令也记录,只会从原理上面出发去分析,并且环境调整了什么参数,都是不同的结果的,比如上面的

write_buffer_size如果调整到512MB,那么预留的空间差不多需要翻一倍的

所以参数的调整,一定要实测

ceph bluestore的db分区应该预留多大的空间的更多相关文章

  1. ceph扩展bluestore的db分区

    前言 在ceph 14版本里面才加入了bluefs-bdev-migrate,分区迁移相关的命令,那么在12版本里面其实也是可以扩展分区的 测试的版本 [root@lab102 ceph-0]# ce ...

  2. [ ceph ] BlueStore 存储引擎介绍

    为什么需要 BlueStore 首先,Ceph原本的FileStore需要兼容Linux下的各种文件系统,如EXT4.BtrFS.XFS.理论上每种文件系统都实现了POSIX协议,但事实上,每个文件系 ...

  3. 开源实践分享:Ceph bluestore部署实践

    https://blog.51cto.com/99cloud/2119884 Ceph bluestore部署 首先为大家分享Ceph bluestore具体该如何部署,使用环境如下• 单节点• Ce ...

  4. Ceph BlueStore与FileStore:利用Micron NVMe SSD进行性能比较

    https://www.micron.com/about/blog/2018/may/ceph-bluestore-vs-filestoreblock-performance-comparison-w ...

  5. Ceph BlueStore 解析:Object IO到磁盘的映射

    作者:吴香伟 发表于 2017/02/19 版权声明:可以任意转载,转载时务必以超链接形式标明文章原始出处和作者信息以及版权声明 简单回顾下Ceph OSD后端存储引擎的历史. 为解决事务原子性问题, ...

  6. ceph存储 ceph Bluestore的架构

    ceph 目前是开源社区比较流行的分布式块存储系统,其以良好的架构,稳定性和完善的数据服务功能,获得的了广泛的部署和应用. 目前ceph 最大的问题是其性能相对较差,特别是无法发挥SSD等高速设备的硬 ...

  7. ceph bluestore与 filestore 数据存放的区别

    一. filestore 对象所在的PG以文件方式放在xfs文件中 1 查看所有的osd硬盘,跟其他linux其他硬盘一样,被挂载一个目录中. [root@hz-storage1 ~]# df -h ...

  8. Ceph Bluestore首测

    Bluestore 作为 Ceph Jewel 版本推出的一个重大的更新,提供了一种之前没有的存储形式,一直以来ceph的存储方式一直是以filestore的方式存储的,也就是对象是以文件方式存储在o ...

  9. Oracle DB 分区特性概述 Overview of Partitions

    概述:在Oracle数据库中,分区(partitioning)可以使非常大的表(table)或索引(index)分解为小的易管理的块(pieces),这些块被称作分区(partitions).每个分区 ...

随机推荐

  1. logstash-安装

    1.下载   cd /usr/local/src   wget https://mirrors.huaweicloud.com/logstash/7.8.0/logstash-7.8.0.tar.gz ...

  2. C# 面试前的准备_基础知识点的回顾_04

    1.Session和Cookie的使用区别 很容易回答的就是Session在服务器端,存储的数据可以较大容量,比如我们存一个Table,上千条数据. Cookie保存在客户端,安全系数低,不能放重要的 ...

  3. 实战:xfs文件系统的备份和恢复

    概述 XFS提供了 xfsdump 和 xfsrestore 工具协助备份XFS文件系统中的数据.xfsdump 按inode顺序备份一个XFS文件系统. centos7选择xfs格式作为默认文件系统 ...

  4. jinjia2语言

    金家兔 网站: https://jinja.palletsprojects.com/en/2.11.x/ #Jinja is Beautiful {% extends "layout.htm ...

  5. HTML编辑器(1)

    前言 现在网上有很多这样的HTML编辑器,这种编辑器无疑给人带来了很多方便,所以自己也想尝试制作一款这样的HTML编辑器,既然要制作,那就肯定是先把UI搭起来,再慢慢完善功能 设计思路 我的思路就是将 ...

  6. JS时间扩展插件

    前言 原生JS有些没定义的方法只能自己封装了,比如获取现在相隔本年过了几天以及过了多少周,这些都是原JS里没有的方法,现在插件只有一些方法,后期再慢慢扩展 插件使用方法 引用TimeToPack.js ...

  7. spark load data from mysql

    spark load data from mysql code first 本机通过spark-shell.cmd启动一个spark进程 SparkSession spark = SparkSessi ...

  8. origin生成直方图

    1. 导入数据 2. 选择一列,右键生成Frequent Count 3. 如果要显示相对频率,勾选Relative Frequency 4. 选择第一列和最后一列并生成柱状图 5. 双击生成的图形, ...

  9. java-try catch中return在finally之前 还是之后执行

    finally语句在return语句执行之后return返回之前执行的. finally块中的return语句会覆盖try块中的return返回. 如果finally语句中没有return语句覆盖返回 ...

  10. E. Tree Reconstruction 解析(思維)

    Codeforce 1041 E. Tree Reconstruction 解析(思維) 今天我們來看看CF1041E 題目連結 題目 略,請直接看原題 前言 一開始完全搞錯題目意思,還以為每次會刪除 ...