ceph bluestore与 filestore 数据存放的区别
|
[root@hz-storage1 ~]# df -h | grep -i ceph
/dev/sda1 3.7T 112G 3.6T 3% /var/lib/ceph/osd/ff279da7-446d-451f-9dcf-7d281e9b85a6
/dev/sdb1 3.7T 77G 3.6T 3% /var/lib/ceph/osd/263adb71-1902-4e21-acea-b7f53921b484
/dev/sdc1 3.7T 74G 3.6T 2% /var/lib/ceph/osd/e71a1f8e-08eb-4fa6-ba17-90ec20bfe84b
/dev/sdd1 3.7T 96G 3.6T 3% /var/lib/ceph/osd/f308c1e5-6d39-442e-883a-e3253e6ba4f0
/dev/sde1 3.7T 97G 3.6T 3% /var/lib/ceph/osd/81772621-7175-4d5d-bdb3-ccad15fa3848
/dev/sdf1 3.7T 111G 3.6T 3% /var/lib/ceph/osd/889ba3b0-09a9-43e8-b0c9-adc938337ccd
/dev/sdh1 3.7T 77G 3.6T 3% /var/lib/ceph/osd/269d36ae-7e3f-4c72-89a1-6f5841c3212f
/dev/sdi1 3.7T 91G 3.6T 3% /var/lib/ceph/osd/5476a45d-ca0e-4728-b09d-7a277394bda7
/dev/sdj1 3.7T 65G 3.6T 2% /var/lib/ceph/osd/6b1ab4bb-82b1-4fbd-8a57-3fae690df4e9
/dev/sdk1 3.7T 85G 3.6T 3% /var/lib/ceph/osd/0a44ee0c-c5f3-4769-b4bc-1dd819c3f1ad
/dev/sdl1 3.7T 127G 3.6T 4% /var/lib/ceph/osd/60536d66-31f2-4ec4-8728-e02bf11fd04f
|
|
[root@hz-storage1 ~]# cd /var/lib/ceph/osd/ff279da7-446d-451f-9dcf-7d281e9b85a6
[root@hz-storage1 ff279da7-446d-451f-9dcf-7d281e9b85a6]# ls -ls
total 40
4 -rw-r--r-- 1 root root 37 Dec 29 23:06 ceph_fsid
4 drwxr-xr-x 92 root root 4096 Feb 18 09:19 current
4 -rw-r--r-- 1 root root 37 Dec 29 23:06 fsid
4 -rw------- 1 root root 56 Dec 29 23:06 keyring
4 -rw-r--r-- 1 root root 21 Dec 29 23:06 magic
4 -rw-r--r-- 1 root root 6 Dec 29 23:06 ready
4 -rw-r--r-- 1 root root 4 Dec 29 23:06 store_version
4 -rw-r--r-- 1 root root 53 Dec 29 23:06 superblock
4 -rw-r--r-- 1 root root 10 Dec 29 23:06 type
4 -rw-r--r-- 1 root root 2 Dec 29 23:06 whoami
|
|
[root@hz-storage1 ff279da7-446d-451f-9dcf-7d281e9b85a6]# cd current/
[root@hz-storage1 current]# ls -ls
total 920
36 drwxr-xr-x 2 root root 32768 Jan 1 18:24 1.7_head
0 drwxr-xr-x 2 root root 6 Dec 29 23:11 1.7_TEMP
20 drwxr-xr-x 2 root root 16384 Feb 22 16:22 2.15_head
0 drwxr-xr-x 2 root root 6 Dec 31 23:07 2.15_TEMP
24 drwxr-xr-x 2 root root 20480 Feb 22 16:07 2.1d_head
0 drwxr-xr-x 2 root root 66 Feb 22 02:54 2.1d_TEMP
24 drwxr-xr-x 2 root root 20480 Feb 22 16:36 2.1f_head
0 drwxr-xr-x 2 root root 66 Feb 21 20:31 2.1f_TEMP
24 drwxr-xr-x 2 root root 20480 Feb 22 15:44 2.36_head
0 drwxr-xr-x 2 root root 6 Dec 31 23:07 2.36_TEMP
24 drwxr-xr-x 2 root root 20480 Feb 22 16:38 2.41_head
0 drwxr-xr-x 2 root root 6 Dec 31 23:07 2.41_TEMP
28 drwxr-xr-x 2 root root 24576 Feb 22 16:39 2.43_head
0 drwxr-xr-x 2 root root 6 Dec 31 23:07 2.43_TEMP
28 drwxr-xr-x 2 root root 24576 Feb 22 16:39 2.51_head
0 drwxr-xr-x 2 root root 58 Feb 22 15:57 2.51_TEMP
24 drwxr-xr-x 2 root root 20480 Feb 22 16:37 2.5c_head
0 drwxr-xr-x 2 root root 6 Dec 31 23:07 2.5c_TEMP
24 drwxr-xr-x 2 root root 20480 Feb 22 15:33 2.78_head
|
|
[root@99cloud3 d531c723-2bd7-4197-9b6d-8a7fa7ac4719]# df -h | grep -i ceph
/dev/sdb1 97M 5.3M 92M 6% /var/lib/ceph/osd/d531c723-2bd7-4197-9b6d-8a7fa7ac4719
/dev/sdc1 97M 5.3M 92M 6% /var/lib/ceph/osd/b781e99e-7100-4bdd-9223-0b44c2ba6bb8
/dev/sdd1 97M 5.3M 92M 6% /var/lib/ceph/osd/baa319a7-d7cc-4ba2-88ef-9377c3f27d90
|
|
[root@99cloud3 d531c723-2bd7-4197-9b6d-8a7fa7ac4719]# ls -ls
total 40
0 lrwxrwxrwx 1 root root 45 Jan 24 14:38 block -> /dev/disk/by-partlabel/KOLLA_CEPH_DATA_BS_6_B
4 -rw-r--r-- 1 root root 2 Jan 24 14:38 bluefs
4 -rw-r--r-- 1 root root 37 Jan 24 14:38 ceph_fsid
4 -rw-r--r-- 1 root root 37 Jan 24 14:38 fsid
4 -rw------- 1 root root 56 Jan 24 14:38 keyring
4 -rw-r--r-- 1 root root 8 Jan 24 14:38 kv_backend
4 -rw-r--r-- 1 root root 21 Jan 24 14:38 magic
4 -rw-r--r-- 1 root root 4 Jan 24 14:38 mkfs_done
4 -rw-r--r-- 1 root root 6 Jan 24 14:38 ready
4 -rw-r--r-- 1 root root 10 Jan 24 14:38 type
4 -rw-r--r-- 1 root root 2 Jan 24 14:38 whoami
|
|
[root@99cloud3 d531c723-2bd7-4197-9b6d-8a7fa7ac4719]# cd /dev/disk/by-partlabel/
[root@99cloud3 by-partlabel]# ls -ls
total 0
0 lrwxrwxrwx 1 root root 10 Jan 24 14:38 KOLLA_CEPH_DATA_BS_0 -> ../../sdd1
0 lrwxrwxrwx 1 root root 10 Feb 21 17:21 KOLLA_CEPH_DATA_BS_0_B -> ../../sdd2
0 lrwxrwxrwx 1 root root 10 Jan 24 14:38 KOLLA_CEPH_DATA_BS_3 -> ../../sdc1
0 lrwxrwxrwx 1 root root 10 Feb 21 17:21 KOLLA_CEPH_DATA_BS_3_B -> ../../sdc2
0 lrwxrwxrwx 1 root root 10 Jan 24 14:38 KOLLA_CEPH_DATA_BS_6 -> ../../sdb1
0 lrwxrwxrwx 1 root root 10 Feb 21 17:21 KOLLA_CEPH_DATA_BS_6_B -> ../../sdb2
|
|
#echo "Hello Ceph, You are Awesome like MJ" > /tmp/helloceph
#ceph osd pool create HPC_Pool 128 128
|
|
#rados -p HPC_Pool put object1 /tmp/helloceph
#rados -p HPC_Pool ls
object1
|
|
# ceph osd map HPC_Pool object1
osdmap e221395 pool 'HPC_Pool' (14) object 'object1' -> pg 14.bac5debc (14.3c) -> up ([6,4,7], p6) acting ([6,4,7], p6)
|
|
[root@99cloud1 /]# ceph osd tree
ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF
-1 4.85994 root default
-2 0 host 10.160.20.197
-4 0 host 10.160.20.198
-3 0 host 10.160.20.199
-11 1.61998 host 99cloud3
0 hdd 0.53999 osd.0 up 1.00000 1.00000
3 hdd 0.53999 osd.3 up 1.00000 1.00000
6 hdd 0.53999 osd.6 up 1.00000 1.00000
-9 1.61998 host 99cloud4
2 hdd 0.53999 osd.2 up 1.00000 1.00000
4 hdd 0.53999 osd.4 up 1.00000 1.00000
8 hdd 0.53999 osd.8 up 1.00000 1.00000
-13 1.61998 host 99cloud5
1 hdd 0.53999 osd.1 up 1.00000 1.00000
5 hdd 0.53999 osd.5 up 1.00000 1.00000
7 hdd 0.53999 osd.7 up 1.00000 1.00000
|
ceph bluestore与 filestore 数据存放的区别的更多相关文章
- Ceph BlueStore与FileStore:利用Micron NVMe SSD进行性能比较
https://www.micron.com/about/blog/2018/may/ceph-bluestore-vs-filestoreblock-performance-comparison-w ...
- 开源实践分享:Ceph bluestore部署实践
https://blog.51cto.com/99cloud/2119884 Ceph bluestore部署 首先为大家分享Ceph bluestore具体该如何部署,使用环境如下• 单节点• Ce ...
- ceph存储 ceph Bluestore的架构
ceph 目前是开源社区比较流行的分布式块存储系统,其以良好的架构,稳定性和完善的数据服务功能,获得的了广泛的部署和应用. 目前ceph 最大的问题是其性能相对较差,特别是无法发挥SSD等高速设备的硬 ...
- [ ceph ] BlueStore 存储引擎介绍
为什么需要 BlueStore 首先,Ceph原本的FileStore需要兼容Linux下的各种文件系统,如EXT4.BtrFS.XFS.理论上每种文件系统都实现了POSIX协议,但事实上,每个文件系 ...
- android的程序运行数据存放在哪里?
Android应用开发中,给我们提供了5种数据的存储方式1 使用SharedPreferences存储数据2 文件存储数据3 SQLite数据库存储数据4 使用ContentProvider存储数据5 ...
- (转)MySQL 常用数据存储引擎区别
MySQL 常用数据存储引擎区别 原文:https://laravel-china.org/articles/4198/mysql-common-data-storage-engine mysql有多 ...
- shp数据和tab数据的两点区别
作者:朱金灿 来源:http://blog.csdn.net/clever101 shp是ArcGIS的矢量格式,tab是Mapinfo的矢量格式.shp数据和tab数据有两点区别:一是shp数据的f ...
- MySQL数据库数据存放位置修改
MySQL数据库数据存放位置修改 MySQL是一个关系型数据库管理系统,由瑞典MySQL AB 公司开发,目前属于 Oracle 旗下产品.MySQL 最流行的关系型数据库管理系统,在 WEB 应用方 ...
- CentOS6 更改Mysql数据库的数据存放位置
mysql使用yum安装时,默认的数据是存储在/var/lib/mysql下.一般情况下,为了数据的安全性,建议将mysql数据库的数据文件存储在系统的第二块磁盘上的目录下可以按照以下步骤进行操作: ...
随机推荐
- 从汉堡加料说起——浅谈C#中的Decorator模式
相信大家都在都在汉堡店吃过汉堡,有些汉堡店很有特色,推出了汉堡订制服务,即,可以在汉堡中加料,加肉饼,加生菜之类(有点类似我们本地的肥肠粉里面加冒结子).更是让不少吃货大快朵颐,大呼过瘾,加6,7层肉 ...
- MVVM 小雏形 knockout
前言 knockout学过的当工具脚本用,就像jquery一样使用,学习成本15分钟,没学过的可学可不学. knockout 是上古神器,话说在远古开天辟地,前端到处是飞禽走兽,一片混乱. 这时候人类 ...
- Rocket - devices - CLINT
https://mp.weixin.qq.com/s/4LfZZDKCTQhiKIUjvbDKEg 简单介绍CLINT的实现. 1. 概述 CLINT即是Core Local Interrupter的 ...
- Rocket - decode - 解码单个信号
https://mp.weixin.qq.com/s/0D_NaeBEZX5LBQRdCz2seQ 介绍解码单个信号逻辑的实现. 1. 单个信号 每个指令对应了一组信号,每个信号对应 ...
- git可视化打包更新文件
每次当我们修改了项目代码的时候,总需要理出来一个更新包发给测试部门或者给客户更新.当我们一次的修改的代码多了之后,我们就很难按照文件夹一个一个的去提交出来哪些的更新的,哪些是未修改的.于是乎就在度娘能 ...
- Java实现 蓝桥杯 算法提高 抽卡游戏
试题 算法提高 抽卡游戏 某个抽卡游戏卡池抽出限定卡的概率为p,该游戏有一个"井"的机制,抽满k次卡后直接送这张限定卡.试求获得这张限定卡需要的期望抽卡次数.输入为一行,用空格隔开 ...
- Java实现 LeetCode 374 猜数字大小
374. 猜数字大小 我们正在玩一个猜数字游戏. 游戏规则如下: 我从 1 到 n 选择一个数字. 你需要猜我选择了哪个数字. 每次你猜错了,我会告诉你这个数字是大了还是小了. 你调用一个预先定义好的 ...
- Java实现 LeetCode 282 给表达式添加运算符
282. 给表达式添加运算符 给定一个仅包含数字 0-9 的字符串和一个目标值,在数字之间添加二元运算符(不是一元)+.- 或 * ,返回所有能够得到目标值的表达式. 示例 1: 输入: num = ...
- java实现排他平方数
题目标题: 排它平方数 小明正看着 203879 这个数字发呆. 原来,203879 * 203879 = 41566646641 这有什么神奇呢?仔细观察,203879 是个6位数,并且它的每个数位 ...
- java实现蔬菜价格计算
** 蔬菜价格计算** 计算蔬菜总价 为了丰富群众菜篮子,平抑菜价,相关部分组织了蔬菜的调运.今某箱中有多个品种的蔬菜.蔬菜的单价(元/公斤)存放在price数组中,蔬菜的重量(公斤)存放在weigh ...