多个物理磁盘挂载到同一目录的方法 (lvm 软raid)


背景

公司里面的一台申威3231的机器
因为这个机器的raid卡没有操作界面.
所以只能够通过命令行方式创建raid
自己这一块比较菜, 想着先尝试使用lvm的方式进行软raid挂载,也验证一下性能.
所以写一些这个文章

简单的结论

虽然lvm可以讲多个硬盘合并到一块去
可以扩充目录的空间,
但是通过fio的测试发现, 性能跟单盘相比几乎没有任何变化,甚至有所衰减. 所以lvm的这种机制的性能提示非常有限(甚至有害.).
还是应该使用 raid卡进行处理. ext4 总计IOPS 120.8k
xfs 总结IOPS 127.5k
单SSD 总计IOPS 137.5k 注意合计IOPS仅是一个角度. 我这边的计算命令为:
分别计算 单位不同的两个数据. 然后最后计算最终结果.
cat xfs |grep IOPS |awk -F "=" '{print $2}'|awk -F "," '{print $1}' |grep -v k |awk 'BEGIN{sum=0}{sum+=$1}END{print sum}'
cat xfs |grep IOPS |awk -F "=" '{print $2}'|awk -F "," '{print $1}' |grep k |awk 'BEGIN{sum=0}{sum+=$1}END{print sum}'

过程-初始化磁盘

df -Th
看到的其实都是已经挂载的目录
lsblk
可以看到所有的硬盘信息
lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 1.8T 0 disk
sdb 8:16 0 1.8T 0 disk
sdc 8:32 0 1.8T 0 disk
sdd 8:48 0 1.8T 0 disk
├─sdd1 8:49 0 1G 0 part /boot 可以看到三个盘都是原始状态.
所以需要挨个进行处理 fdisk /dev/sda
操作过程如下: 欢迎使用 fdisk (util-linux 2.34)。
更改将停留在内存中,直到您决定将更改写入磁盘。
使用写入命令前请三思。 设备不包含可识别的分区表。
创建了一个磁盘标识符为 0xfe7c6f0f 的新 DOS 磁盘标签。
# 命令1 新建分区
命令(输入 m 获取帮助):n
分区类型
p 主分区 (0个主分区,0个扩展分区,4空闲)
e 扩展分区 (逻辑分区容器)
# 命令2 设置为主分区
选择 (默认 p):p
分区号 (1-4, 默认 1):
第一个扇区 (2048-3750748847, 默认 2048):
最后一个扇区,+/-sectors 或 +size{K,M,G,T,P} (2048-3750748847, 默认 3750748847):
# 这一些默认就可以
创建了一个新分区 1,类型为“Linux”,大小为 1.8 TiB。
# 命令3 更换磁盘类型
命令(输入 m 获取帮助):t
已选择分区 1
# 命令4 lvm 使用的代号是8e
Hex 代码(输入 L 列出所有代码):8e
已将分区“Linux”的类型更改为“Linux LVM”。
# 命令5 保存修改配置.
命令(输入 m 获取帮助):w
分区表已调整。
将调用 ioctl() 来重新读分区表。
正在同步磁盘。

过程-创建pv

创建pv
pvcreate /dev/sda
pvcreate /dev/sdb
pvcreate /dev/sdc 创建完成后的效果为:
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 1.8T 0 disk
└─sda1 8:1 0 1.8T 0 part
sdb 8:16 0 1.8T 0 disk
└─sdb1 8:17 0 1.8T 0 part
sdc 8:32 0 1.8T 0 disk
└─sdc1 8:33 0 1.8T 0 part

过程-创建vg

创建vg
vgcreate sw_ssd /dev/sda1 /dev/sdb1 /dev/sdc1 可以查看vg的信息:
vgdisplay sw_ssd
--- Volume group ---
VG Name sw_ssd
System ID
Format lvm2
Metadata Areas 3
Metadata Sequence No 1
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 0
Open LV 0
Max PV 0
Cur PV 3
Act PV 3
VG Size <5.24 TiB
PE Size 4.00 MiB
Total PE 1373562
Alloc PE / Size 0 / 0
Free PE / Size 1373562 / <5.24 TiB
VG UUID AalcfI-tW0K-sjrk-m9dA-u14l-UKTi-vzcT8l

过程-创建lv

lvcreate -l 100%VG  -n sw_lv  sw_ssd

# 命令解析:

-I  指定使用vg容量的百分比
-L 后面是要分给lv的大小
-n 新建一个名字为vg_1的lv lvdisplay
--- Logical volume ---
LV Path /dev/sw_ssd/sw_lv
LV Name sw_lv
VG Name sw_ssd
LV UUID owTM2i-AchR-XKZ4-QBfs-CdUL-FeO8-gpz4Ys
LV Write Access read/write
LV Creation host, time localhost.localdomain, 2023-06-18 13:11:15 +0800
LV Status available
# open 0
LV Size <5.24 TiB
Current LE 1373562
Segments 3
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:0

过程-创建文件系统以及挂载

mkfs.xfs /dev/sw_ssd/sw_lv

感觉可以多次进行验证了 先创建为xfs文件系统
mkdir -p /data
# 将lv挂载到/data中
mount /dev/sw_ssd/sw_lv /data
# 设置开机自动挂载
vim /etc/fstab
# 增加一行
/dev/sw_ssd/sw_lv /data xfs defaults 0 0

过程-修改文件类型的方法

fuser -mv /data
# 将正在使用的进程关掉.
umount /data
# 取消挂载
mkfs.ext4 /dev/sw_ssd/sw_lv
# 如果需要使用这个文件系统, 那么需要修改 fstab文件.
mount /dev/sw_ssd/sw_lv /data
# 验证修改后的文件系统:
[root@localhost deploy]# df -Th
文件系统 类型 容量 已用 可用 已用% 挂载点
devtmpfs devtmpfs 77G 0 77G 0% /dev
tmpfs tmpfs 127G 24K 127G 1% /dev/shm
tmpfs tmpfs 127G 6.6M 127G 1% /run
tmpfs tmpfs 127G 0 127G 0% /sys/fs/cgroup
/dev/sdd3 xfs 1.1T 21G 1.1T 2% /
tmpfs tmpfs 127G 16K 127G 1% /tmp
/dev/sdd1 ext3 976M 197M 728M 22% /boot
/dev/sdd4 xfs 671G 4.0G 667G 1% /home
/dev/sdd5 xfs 30G 12G 19G 39% /backup
tmpfs tmpfs 26G 0 26G 0% /run/user/990
tmpfs tmpfs 26G 0 26G 0% /run/user/0
/dev/mapper/sw_ssd-sw_lv ext4 5.2T 60M 5.0T 1% /data

性能测试-单盘SSD验证

write128k
write: IOPS=2586, BW=323MiB/s (339MB/s)(4096MiB/12669msec)
read128k
read: IOPS=3914, BW=489MiB/s (513MB/s)(4096MiB/8371msec)
randwrite128k
write: IOPS=2670, BW=334MiB/s (350MB/s)(4096MiB/12272msec)
randread128k
read: IOPS=2768, BW=346MiB/s (363MB/s)(4096MiB/11835msec)
write16k
write: IOPS=8607, BW=134MiB/s (141MB/s)(4035MiB/30001msec)
read16k
read: IOPS=13.6k, BW=213MiB/s (223MB/s)(4096MiB/19265msec)
randwrite16k
write: IOPS=8623, BW=135MiB/s (141MB/s)(4042MiB/30001msec)
randread16k
read: IOPS=6272, BW=98.0MiB/s (103MB/s)(2940MiB/30001msec)
write8k
write: IOPS=10.5k, BW=81.0MiB/s (85.0MB/s)(2460MiB/30001msec)
read8k
read: IOPS=14.6k, BW=114MiB/s (119MB/s)(3414MiB/30001msec)
randwrite8k
write: IOPS=10.1k, BW=78.9MiB/s (82.7MB/s)(2366MiB/30001msec)
randread8k
read: IOPS=7411, BW=57.9MiB/s (60.7MB/s)(1737MiB/30001msec)
write1k
write: IOPS=11.9k, BW=11.6MiB/s (12.1MB/s)(348MiB/30001msec)
read1k
read: IOPS=14.4k, BW=14.1MiB/s (14.8MB/s)(423MiB/30001msec)
randwrite1k
write: IOPS=11.2k, BW=10.9MiB/s (11.4MB/s)(327MiB/30001msec)
randread1k
read: IOPS=8366, BW=8366KiB/s (8567kB/s)(245MiB/30001msec)

性能测试-三盘SSDxfs

write128k
write: IOPS=2615, BW=327MiB/s (343MB/s)(4096MiB/12529msec)
read128k
read: IOPS=2999, BW=375MiB/s (393MB/s)(4096MiB/10925msec)
randwrite128k
write: IOPS=2708, BW=339MiB/s (355MB/s)(4096MiB/12100msec)
randread128k
read: IOPS=2198, BW=275MiB/s (288MB/s)(4096MiB/14903msec)
write16k
write: IOPS=9368, BW=146MiB/s (154MB/s)(4096MiB/27980msec)
read16k
read: IOPS=10.0k, BW=156MiB/s (164MB/s)(4096MiB/26176msec)
randwrite16k
write: IOPS=9134, BW=143MiB/s (150MB/s)(4096MiB/28698msec)
randread16k
read: IOPS=4940, BW=77.2MiB/s (80.9MB/s)(2316MiB/30001msec)
write8k
write: IOPS=11.2k, BW=87.6MiB/s (91.8MB/s)(2627MiB/30001msec)
read8k
read: IOPS=11.6k, BW=90.0MiB/s (95.4MB/s)(2730MiB/30001msec)
randwrite8k
write: IOPS=10.7k, BW=83.6MiB/s (87.7MB/s)(2509MiB/30001msec)
randread8k
read: IOPS=5861, BW=45.8MiB/s (48.0MB/s)(1374MiB/30001msec)
write1k
write: IOPS=12.5k, BW=12.2MiB/s (12.7MB/s)(365MiB/30004msec)
read1k
read: IOPS=13.8k, BW=13.5MiB/s (14.2MB/s)(406MiB/30001msec)
randwrite1k
write: IOPS=12.5k, BW=12.2MiB/s (12.8MB/s)(367MiB/30001msec)
randread1k
read: IOPS=5385, BW=5386KiB/s (5515kB/s)(158MiB/30001msec)

性能测试-三盘SSDext4

write128k
write: IOPS=2366, BW=296MiB/s (310MB/s)(4096MiB/13846msec)
read128k
read: IOPS=2937, BW=367MiB/s (385MB/s)(4096MiB/11156msec)
randwrite128k
write: IOPS=2644, BW=331MiB/s (347MB/s)(4096MiB/12393msec)
randread128k
read: IOPS=2097, BW=262MiB/s (275MB/s)(4096MiB/15619msec)
write16k
write: IOPS=8844, BW=138MiB/s (145MB/s)(4096MiB/29639msec)
read16k
read: IOPS=9838, BW=154MiB/s (161MB/s)(4096MiB/26645msec)
randwrite16k
write: IOPS=8519, BW=133MiB/s (140MB/s)(3994MiB/30001msec)
randread16k
read: IOPS=5092, BW=79.6MiB/s (83.4MB/s)(2387MiB/30001msec)
write8k
write: IOPS=10.4k, BW=81.0MiB/s (84.0MB/s)(2431MiB/30001msec)
read8k
read: IOPS=11.5k, BW=89.9MiB/s (94.2MB/s)(2696MiB/30001msec)
randwrite8k
write: IOPS=9758, BW=76.2MiB/s (79.9MB/s)(2287MiB/30001msec)
randread8k
read: IOPS=5796, BW=45.3MiB/s (47.5MB/s)(1359MiB/30001msec)
write1k
write: IOPS=11.0k, BW=11.7MiB/s (12.2MB/s)(350MiB/30001msec)
read1k
read: IOPS=13.0k, BW=13.7MiB/s (14.3MB/s)(410MiB/30001msec)
randwrite1k
write: IOPS=11.7k, BW=11.4MiB/s (11.0MB/s)(343MiB/30001msec)
randread1k
read: IOPS=5317, BW=5318KiB/s (5446kB/s)(156MiB/30001msec)

多个物理磁盘挂载到同一目录的方法 (lvm 软raid)的更多相关文章

  1. Ubuntu18.04 磁盘挂载在某目录下

    简介 记录Ubuntu18.04 桌面版系统下实现某个磁盘挂载到自己想要的目录下,内容参考网上教程,此处为自己操作记录. 查看当前所有的磁盘信息 命令:sudo fdisk -l 从列出的信息中可以看 ...

  2. ubuntu 挂载windows共享目录的方法

    建立windows共享目录 右击要共享的文件夹-->属性-->高级共享-->添加用户-->添加完全控制权限 假设建立的共享地址为\\192.168.1.100\Linux 获取 ...

  3. linux服务器磁盘挂载操作

    具体操作是:先对磁盘进行格式化,格式化后挂载到需要的挂载点,最后添加分区启动表,以便下次系统启动随机自动挂载.1.首先查看系统中磁盘信息,命令为:fdisk -l; 2.找到未使用的磁盘,对其进行格式 ...

  4. Linux磁盘挂载

            mount命令 用于加载文件系统到指定的加载点.此命令的最常用于挂载cdrom,使我们可以访问cdrom中的数据,因为你将光盘插入cdrom中,Linux并不会自动挂载,必须使用Lin ...

  5. linux服务器磁盘挂载

    1.先查看当前服务器挂载的磁盘个数 fdisk -l 2.将vdb磁盘挂载到/data目录下 mount /dev/vdb /data 3.df -h  检查磁盘挂载的情况

  6. Linux磁盘空间容量不够-通过新增磁盘-挂载原磁盘

    首先上一张图 -------1)首先fdisk 一块磁盘并格式化 mkfs.ext4 /dev/sda15 --------2)将此磁盘挂载在mnt目录下,并将磁盘容量不够的磁盘所有文件进行复制到mn ...

  7. 如果ASM磁盘组由哪些物理磁盘组成?

    我们知道用下面的方法可创建 ASM 磁盘,然后再创建逻辑的ASM组 以 root 用户身份创建 ASM 磁盘.# /etc/init.d/oracleasm createdisk VOL1 /dev/ ...

  8. 使用Megacli64对服务器物理磁盘做Raid并通过uuid方式挂载

    需求说明:公司最近来了一批服务器,用于大数据业务部署.数据节点服务器由14块物理磁盘,其中有2块是900G的盘,12块是4T的盘.在服务器系统安装时,进入系统的BIOS界面:1)将2块900G的磁盘做 ...

  9. 磁盘分区以及Linux目录挂载详解

    一.背景 一直以来,对于磁盘的分区以及Linux目录挂载的概念都不是很清晰,现在趁着春暖花开周末在家没事就研究了下它们,现在来分享我的理解. 二.概念详解 1.磁盘分区 磁盘分区是把物理的磁盘空间按照 ...

  10. LVM实现将2块磁盘总空间“合二为一”并挂载到同一目录

    需求场景 将MySQL主机的2块18T的数据盘空间全部"合并"后挂载到/mysql_data目录下,要求文件系统格式化为xfs:已有关键信息梳理如下: 需要挂载的数据盘 /dev/ ...

随机推荐

  1. 痞子衡嵌入式:原来i.MXRT1170内部RAM的ECC初始化工作可全部由ROM完成

    大家好,我是痞子衡,是正经搞技术的痞子.今天痞子衡给大家分享的是i.MXRT1170内部RAM的ECC初始化工作可全部由ROM完成. 痞子衡之前写了三篇文章 <M7 FlexRAM ECC> ...

  2. GaussDB(DWS)案例丨MERGE场景下语句不下推引起的性能瓶颈问题

    本文分享自华为云社区<GaussDB(DWS)性能调优:MERGE场景下语句不下推引起的性能瓶颈问题案例>,作者:O泡果奶~. 1.[问题描述] 语句执行时间过长,且该语句performa ...

  3. 中秋国庆花式玩法,用低代码DIY假日大屏“Vlog”

    ​​本文分享自华为云社区 <[云享热点]中秋国庆花式玩法,用低代码DIY假日大屏"Vlog"(内附节日福利)>,作者:华为云社区精选. 中秋.国庆双节将至,你的八天小长 ...

  4. 数据交换不失控:华为云EDS,让你的数据你做主

    摘要:华为云EDS在"可信.可控.可证"的框架基础上进行数据空间的关键设计,打造数据可控交换的全栈能力. 数字社会,每时每刻都有海量数据产生,数据也逐渐从生产过程的附属产物,逐渐成 ...

  5. 鸿蒙轻内核M核源码分析:中断Hwi

    摘要:本文带领大家一起剖析了鸿蒙轻内核的中断模块的源代码,掌握中断相关的概念,中断初始化操作,中断创建.删除,开关中断操作等. 本文分享自华为云社区<鸿蒙轻内核M核源码分析系列五 中断Hwi&g ...

  6. 详解openGauss多线程架构启动过程

    摘要:本文介绍openGauss数据库的启动过程,包括主线程,辅助线程及业务处理线程的启动过程. 本文分享自华为云社区<openGauss内核分析(一):openGauss 多线程架构启动过程详 ...

  7. 从java到JavaScript(2):对比Java/Go/Swift/Rust看Dart

    Dart与Java的一些直观区别 Dart和java以及C#都差不多,基本上不用学习可以直接使用,从这里可以你可以了解Dart有些特别之处.其实对于Java开发人员来说Dart,还是相对好理解的 基本 ...

  8. ThreadPoolExecutor 使用

    ThreadPoolExecutor 介绍 简写: package com.vipsoft.Thread; import java.util.concurrent.*; import java.uti ...

  9. python虚拟环境venv

    Python3虚拟环境是为了在开发过程中隔离项目所需的 Python 环境.虚拟环境允许我们在同一台计算机上的不同项目中使用不同的 Python 版本和软件包,而不会相互干扰 首先创建一个虚拟环境的工 ...

  10. # github.com/coreos/etcd/clientv3/balancer/resolver/endpoint

    linux使用go连接etcd集群时报错: # github.com/coreos/etcd/clientv3/balancer/resolver/endpoint /root/go/pkg/mod/ ...