rbd块映射:

 root@u18:~# rbd create kvm/test002.img --size
root@u18:~# rbd info kvm/test002.img
rbd image 'test002.img':
size kB in objects
order ( kB objects)
block_name_prefix: rb..2f13.2ae8944a
format:
root@u18:~# rbd map kvm/test002.img
root@u18:~# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda : .1G disk
├─sda1 : .2G part /
├─sda2 : 1K part
└─sda5 : .9G part [SWAP]
sdb : .8G disk
├─sdb1 : 200G part /ceph_node0
├─sdb2 : 1K part
├─sdb5 : 100G part
└─sdb6 : .8G part /data2
rbd0 : 40G disk
rbd1 : 20M disk
zram0 : 936.4M disk [SWAP] root@u18:~# mkfs.ext4 /dev/rbd1
mke2fs 1.42 (-Nov-)
Filesystem label=
OS type: Linux
Block size= (log=)
Fragment size= (log=)
Stride= blocks, Stripe width= blocks
inodes, blocks
blocks (5.00%) reserved for the super user
First data block=
Maximum filesystem blocks=
block groups
blocks per group, fragments per group
inodes per group
Superblock backups stored on blocks: Allocating group tables: done
Writing inode tables: done
Creating journal ( blocks): done
Writing superblocks and filesystem accounting information: done root@u18:~# mount /dev/rbd1 /mnt
root@u18:~# echo test > /mnt/a.log
root@u18:~# vim a.log
root@u18:~# vim /mnt/a.log
root@u18:~# umount /mnt
root@u18:~# rbd unmap /dev/rbd1
root@u18:~# rbd resize --size kvm/test002.img
Resizing image: % complete...done.
root@u18:~# rbd info kvm/test002.img
rbd image 'test002.img':
size MB in objects
order ( kB objects)
block_name_prefix: rb..2f13.2ae8944a
format:
root@u18:~# rbd info kvm/test002.img
rbd image 'test002.img':
size MB in objects
order ( kB objects)
block_name_prefix: rb..2f13.2ae8944a
format:
root@u18:~# rbd map kvm/test002.img
root@u18:~# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda : .1G disk
├─sda1 : .2G part /
├─sda2 : 1K part
└─sda5 : .9G part [SWAP]
sdb : .8G disk
├─sdb1 : 200G part /ceph_node0
├─sdb2 : 1K part
├─sdb5 : 100G part
└─sdb6 : .8G part /data2
rbd0 : 40G disk
rbd1 : 40G disk
zram0 : 936.4M disk [SWAP]
root@u18:~# rbd unmap /dev/rbd1
root@u18:~# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda : .1G disk
├─sda1 : .2G part /
├─sda2 : 1K part
└─sda5 : .9G part [SWAP]
sdb : .8G disk
├─sdb1 : 200G part /ceph_node0
├─sdb2 : 1K part
├─sdb5 : 100G part
└─sdb6 : .8G part /data2
rbd0 : 40G disk
zram0 : 936.4M disk [SWAP]
root@u18:~# rbd map kvm/test002.img
root@u18:~# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda : .1G disk
├─sda1 : .2G part /
├─sda2 : 1K part
└─sda5 : .9G part [SWAP]
sdb : .8G disk
├─sdb1 : 200G part /ceph_node0
├─sdb2 : 1K part
├─sdb5 : 100G part
└─sdb6 : .8G part /data2
rbd0 : 40G disk
rbd1 : 40G disk
zram0 : 936.4M disk [SWAP]
root@u18:~# mount /dev/rbd1 /mnt
root@u18:~# parted /dev/rbd1 print free
root@u18:~# parted /dev/rbd1 print free
Model: Unknown (unknown)
Disk /dev/rbd1: .9GB
Sector size (logical/physical): 512B/512B
Partition Table: loop Number Start End Size File system Flags
.00B .9GB .9GB ext4 root@u18:~# vim /mnt/a.log
root@u18:~# cat /mnt/a.log
test

rbd块映射的更多相关文章

  1. ceph 005 赋权补充 rbd块映射

    我的ceph版本 [root@serverc ~]# ceph -v ceph version 16.2.0-117.el8cp (0e34bb74700060ebfaa22d99b7d2cdc037 ...

  2. ceph集群jewel版本 rbd 块map 报错-故障排查

    测试信息如下: [root@ceph_1 ~]# ceph osd pool lsrbdchy_123swimmingpool #新建rbd 块: rbd create swimmingpool/ba ...

  3. 理解 QEMU/KVM 和 Ceph(2):QEMU 的 RBD 块驱动(block driver)

    本系列文章会总结 QEMU/KVM 和 Ceph 之间的整合: (1)QEMU-KVM 和 Ceph RBD 的 缓存机制总结 (2)QEMU 的 RBD 块驱动(block driver) (3)存 ...

  4. 006 管理Ceph的RBD块设备

    一, Ceph RBD的特性 支持完整和增量的快照 自动精简配置 写时复制克隆 动态调整大小 二.RBD基本应用 2.1 创建RBD池 [root@ceph2 ceph]# ceph osd pool ...

  5. Ceph14.2.5 RBD块存储的实战配置和详细介绍,不看后悔! -- <3>

    Ceph RBD介绍与使用 RBD介绍 RBD即RADOS Block Device的简称,RBD块存储是最稳定且最常用的存储类型.RBD块设备类似磁盘可以被挂载. RBD块设备具有快照.多副本.克隆 ...

  6. ceph rbd块存储挂载及文件存储建立

    一.rbd块存储挂载 1 创建一个OSD pool # ceph osd pool create rbd1 128 查询存储空间使用 # ceph df GLOBAL: SIZE AVAIL RAW ...

  7. 7. Ceph 高级篇 - RBD块设备回收站、快照、克隆

    文章转载自:https://mp.weixin.qq.com/s?__biz=MzI1MDgwNzQ1MQ==&mid=2247485298&idx=1&sn=b83fda07 ...

  8. 3.Ceph 基础篇 - RBD 块存储使用

    文章转载自:https://mp.weixin.qq.com/s?__biz=MzI1MDgwNzQ1MQ==&mid=2247485253&idx=1&sn=24d9b06a ...

  9. 理解 QEMU/KVM 和 Ceph(1):QEMU-KVM 和 Ceph RBD 的 缓存机制总结

    本系列文章会总结 QEMU/KVM 和 Ceph 之间的整合: (1)QEMU-KVM 和 Ceph RBD 的 缓存机制总结 (2)QEMU 的 RBD 块驱动(block driver) (3)存 ...

随机推荐

  1. js中使用控件名和数组下标方式获取控件的值时失败

    在做界面展示时涉及到表单行项目的增加和删除时,我们一帮都使用js的脚本实现表单行的增加和删除,那么在进行表单的提交的时我们会再页面上进行提交数据的初步校验,进行数据的初步校验时,就要动态获取控件的值. ...

  2. [Jobdu] 题目1283:第一个只出现一次的字符

    题目描述: 在一个字符串(1<=字符串长度<=10000,全部由大写字母组成)中找到第一个只出现一次的字符. 输入: 输入有多组数据每一组输入一个字符串. 输出: 输出第一个只出现一次的字 ...

  3. HDU OJ 4334 Trouble 2012 Multi-University Training Contest 4

    题目:click here 题意: 给定5组数据,每组数据选择一个数,看是否能找到5个数的和为零. 分析: 千万不要~~T~~ 普通线性查找: #include <iostream> #i ...

  4. BZOJ 1602: [Usaco2008 Oct]牧场行走( 最短路 )

    一棵树..或许用LCA比较好吧...但是我懒...写了个dijkstra也过了.. ---------------------------------------------------------- ...

  5. html的显示消息和留言板

    <div class="inner_content"> <c:forEach items="${notices}" var="n&q ...

  6. Oracle 批量造数据

    1.通过存储过程方式 CREATE OR REPLACE procedure XXZY.p_test is i number; begin .. loop INSERT INTO test_job V ...

  7. 高质量程序设计指南C/C++语言——malloc/free使用要点

  8. 哈夫曼树(Huffman)的JS实现

    我本身并不懂哈夫曼树也不知道有什么用,GOOGLE了下,也只是一知半解,只是刚好看到有JAVA实现版,又看了下生成原理,感觉挺有意思,就写了一下 有些地方可以优化,效率不怎么样的,纯好玩,也不保证一定 ...

  9. java处理图片时找到不sun.awt.X11GraphicsEnvironment问题

    -Djava.awt.headless=true 解决. export DISPLAY=:0或者xhost + localhost 来解决 1.    什么是Headless mode? Headle ...

  10. 一个php user class

    这个类叫php user class.php user class is an easy to use php snippet for user manipulation (register, log ...