多个物理磁盘挂载到同一目录的方法 (lvm 软raid)
多个物理磁盘挂载到同一目录的方法 (lvm 软raid)
背景
公司里面的一台申威3231的机器
因为这个机器的raid卡没有操作界面.
所以只能够通过命令行方式创建raid
自己这一块比较菜, 想着先尝试使用lvm的方式进行软raid挂载,也验证一下性能.
所以写一些这个文章
简单的结论
虽然lvm可以讲多个硬盘合并到一块去
可以扩充目录的空间,
但是通过fio的测试发现, 性能跟单盘相比几乎没有任何变化,甚至有所衰减.
所以lvm的这种机制的性能提示非常有限(甚至有害.).
还是应该使用 raid卡进行处理.
ext4 总计IOPS 120.8k
xfs 总结IOPS 127.5k
单SSD 总计IOPS 137.5k
注意合计IOPS仅是一个角度. 我这边的计算命令为:
分别计算 单位不同的两个数据. 然后最后计算最终结果.
cat xfs |grep IOPS |awk -F "=" '{print $2}'|awk -F "," '{print $1}' |grep -v k |awk 'BEGIN{sum=0}{sum+=$1}END{print sum}'
cat xfs |grep IOPS |awk -F "=" '{print $2}'|awk -F "," '{print $1}' |grep k |awk 'BEGIN{sum=0}{sum+=$1}END{print sum}'
过程-初始化磁盘
df -Th
看到的其实都是已经挂载的目录
lsblk
可以看到所有的硬盘信息
lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 1.8T 0 disk
sdb 8:16 0 1.8T 0 disk
sdc 8:32 0 1.8T 0 disk
sdd 8:48 0 1.8T 0 disk
├─sdd1 8:49 0 1G 0 part /boot
可以看到三个盘都是原始状态.
所以需要挨个进行处理
fdisk /dev/sda
操作过程如下:
欢迎使用 fdisk (util-linux 2.34)。
更改将停留在内存中,直到您决定将更改写入磁盘。
使用写入命令前请三思。
设备不包含可识别的分区表。
创建了一个磁盘标识符为 0xfe7c6f0f 的新 DOS 磁盘标签。
# 命令1 新建分区
命令(输入 m 获取帮助):n
分区类型
p 主分区 (0个主分区,0个扩展分区,4空闲)
e 扩展分区 (逻辑分区容器)
# 命令2 设置为主分区
选择 (默认 p):p
分区号 (1-4, 默认 1):
第一个扇区 (2048-3750748847, 默认 2048):
最后一个扇区,+/-sectors 或 +size{K,M,G,T,P} (2048-3750748847, 默认 3750748847):
# 这一些默认就可以
创建了一个新分区 1,类型为“Linux”,大小为 1.8 TiB。
# 命令3 更换磁盘类型
命令(输入 m 获取帮助):t
已选择分区 1
# 命令4 lvm 使用的代号是8e
Hex 代码(输入 L 列出所有代码):8e
已将分区“Linux”的类型更改为“Linux LVM”。
# 命令5 保存修改配置.
命令(输入 m 获取帮助):w
分区表已调整。
将调用 ioctl() 来重新读分区表。
正在同步磁盘。
过程-创建pv
创建pv
pvcreate /dev/sda
pvcreate /dev/sdb
pvcreate /dev/sdc
创建完成后的效果为:
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 1.8T 0 disk
└─sda1 8:1 0 1.8T 0 part
sdb 8:16 0 1.8T 0 disk
└─sdb1 8:17 0 1.8T 0 part
sdc 8:32 0 1.8T 0 disk
└─sdc1 8:33 0 1.8T 0 part
过程-创建vg
创建vg
vgcreate sw_ssd /dev/sda1 /dev/sdb1 /dev/sdc1
可以查看vg的信息:
vgdisplay sw_ssd
--- Volume group ---
VG Name sw_ssd
System ID
Format lvm2
Metadata Areas 3
Metadata Sequence No 1
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 0
Open LV 0
Max PV 0
Cur PV 3
Act PV 3
VG Size <5.24 TiB
PE Size 4.00 MiB
Total PE 1373562
Alloc PE / Size 0 / 0
Free PE / Size 1373562 / <5.24 TiB
VG UUID AalcfI-tW0K-sjrk-m9dA-u14l-UKTi-vzcT8l
过程-创建lv
lvcreate -l 100%VG -n sw_lv sw_ssd
# 命令解析:
-I 指定使用vg容量的百分比
-L 后面是要分给lv的大小
-n 新建一个名字为vg_1的lv
lvdisplay
--- Logical volume ---
LV Path /dev/sw_ssd/sw_lv
LV Name sw_lv
VG Name sw_ssd
LV UUID owTM2i-AchR-XKZ4-QBfs-CdUL-FeO8-gpz4Ys
LV Write Access read/write
LV Creation host, time localhost.localdomain, 2023-06-18 13:11:15 +0800
LV Status available
# open 0
LV Size <5.24 TiB
Current LE 1373562
Segments 3
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:0
过程-创建文件系统以及挂载
mkfs.xfs /dev/sw_ssd/sw_lv
感觉可以多次进行验证了 先创建为xfs文件系统
mkdir -p /data
# 将lv挂载到/data中
mount /dev/sw_ssd/sw_lv /data
# 设置开机自动挂载
vim /etc/fstab
# 增加一行
/dev/sw_ssd/sw_lv /data xfs defaults 0 0
过程-修改文件类型的方法
fuser -mv /data
# 将正在使用的进程关掉.
umount /data
# 取消挂载
mkfs.ext4 /dev/sw_ssd/sw_lv
# 如果需要使用这个文件系统, 那么需要修改 fstab文件.
mount /dev/sw_ssd/sw_lv /data
# 验证修改后的文件系统:
[root@localhost deploy]# df -Th
文件系统 类型 容量 已用 可用 已用% 挂载点
devtmpfs devtmpfs 77G 0 77G 0% /dev
tmpfs tmpfs 127G 24K 127G 1% /dev/shm
tmpfs tmpfs 127G 6.6M 127G 1% /run
tmpfs tmpfs 127G 0 127G 0% /sys/fs/cgroup
/dev/sdd3 xfs 1.1T 21G 1.1T 2% /
tmpfs tmpfs 127G 16K 127G 1% /tmp
/dev/sdd1 ext3 976M 197M 728M 22% /boot
/dev/sdd4 xfs 671G 4.0G 667G 1% /home
/dev/sdd5 xfs 30G 12G 19G 39% /backup
tmpfs tmpfs 26G 0 26G 0% /run/user/990
tmpfs tmpfs 26G 0 26G 0% /run/user/0
/dev/mapper/sw_ssd-sw_lv ext4 5.2T 60M 5.0T 1% /data
性能测试-单盘SSD验证
write128k
write: IOPS=2586, BW=323MiB/s (339MB/s)(4096MiB/12669msec)
read128k
read: IOPS=3914, BW=489MiB/s (513MB/s)(4096MiB/8371msec)
randwrite128k
write: IOPS=2670, BW=334MiB/s (350MB/s)(4096MiB/12272msec)
randread128k
read: IOPS=2768, BW=346MiB/s (363MB/s)(4096MiB/11835msec)
write16k
write: IOPS=8607, BW=134MiB/s (141MB/s)(4035MiB/30001msec)
read16k
read: IOPS=13.6k, BW=213MiB/s (223MB/s)(4096MiB/19265msec)
randwrite16k
write: IOPS=8623, BW=135MiB/s (141MB/s)(4042MiB/30001msec)
randread16k
read: IOPS=6272, BW=98.0MiB/s (103MB/s)(2940MiB/30001msec)
write8k
write: IOPS=10.5k, BW=81.0MiB/s (85.0MB/s)(2460MiB/30001msec)
read8k
read: IOPS=14.6k, BW=114MiB/s (119MB/s)(3414MiB/30001msec)
randwrite8k
write: IOPS=10.1k, BW=78.9MiB/s (82.7MB/s)(2366MiB/30001msec)
randread8k
read: IOPS=7411, BW=57.9MiB/s (60.7MB/s)(1737MiB/30001msec)
write1k
write: IOPS=11.9k, BW=11.6MiB/s (12.1MB/s)(348MiB/30001msec)
read1k
read: IOPS=14.4k, BW=14.1MiB/s (14.8MB/s)(423MiB/30001msec)
randwrite1k
write: IOPS=11.2k, BW=10.9MiB/s (11.4MB/s)(327MiB/30001msec)
randread1k
read: IOPS=8366, BW=8366KiB/s (8567kB/s)(245MiB/30001msec)
性能测试-三盘SSDxfs
write128k
write: IOPS=2615, BW=327MiB/s (343MB/s)(4096MiB/12529msec)
read128k
read: IOPS=2999, BW=375MiB/s (393MB/s)(4096MiB/10925msec)
randwrite128k
write: IOPS=2708, BW=339MiB/s (355MB/s)(4096MiB/12100msec)
randread128k
read: IOPS=2198, BW=275MiB/s (288MB/s)(4096MiB/14903msec)
write16k
write: IOPS=9368, BW=146MiB/s (154MB/s)(4096MiB/27980msec)
read16k
read: IOPS=10.0k, BW=156MiB/s (164MB/s)(4096MiB/26176msec)
randwrite16k
write: IOPS=9134, BW=143MiB/s (150MB/s)(4096MiB/28698msec)
randread16k
read: IOPS=4940, BW=77.2MiB/s (80.9MB/s)(2316MiB/30001msec)
write8k
write: IOPS=11.2k, BW=87.6MiB/s (91.8MB/s)(2627MiB/30001msec)
read8k
read: IOPS=11.6k, BW=90.0MiB/s (95.4MB/s)(2730MiB/30001msec)
randwrite8k
write: IOPS=10.7k, BW=83.6MiB/s (87.7MB/s)(2509MiB/30001msec)
randread8k
read: IOPS=5861, BW=45.8MiB/s (48.0MB/s)(1374MiB/30001msec)
write1k
write: IOPS=12.5k, BW=12.2MiB/s (12.7MB/s)(365MiB/30004msec)
read1k
read: IOPS=13.8k, BW=13.5MiB/s (14.2MB/s)(406MiB/30001msec)
randwrite1k
write: IOPS=12.5k, BW=12.2MiB/s (12.8MB/s)(367MiB/30001msec)
randread1k
read: IOPS=5385, BW=5386KiB/s (5515kB/s)(158MiB/30001msec)
性能测试-三盘SSDext4
write128k
write: IOPS=2366, BW=296MiB/s (310MB/s)(4096MiB/13846msec)
read128k
read: IOPS=2937, BW=367MiB/s (385MB/s)(4096MiB/11156msec)
randwrite128k
write: IOPS=2644, BW=331MiB/s (347MB/s)(4096MiB/12393msec)
randread128k
read: IOPS=2097, BW=262MiB/s (275MB/s)(4096MiB/15619msec)
write16k
write: IOPS=8844, BW=138MiB/s (145MB/s)(4096MiB/29639msec)
read16k
read: IOPS=9838, BW=154MiB/s (161MB/s)(4096MiB/26645msec)
randwrite16k
write: IOPS=8519, BW=133MiB/s (140MB/s)(3994MiB/30001msec)
randread16k
read: IOPS=5092, BW=79.6MiB/s (83.4MB/s)(2387MiB/30001msec)
write8k
write: IOPS=10.4k, BW=81.0MiB/s (84.0MB/s)(2431MiB/30001msec)
read8k
read: IOPS=11.5k, BW=89.9MiB/s (94.2MB/s)(2696MiB/30001msec)
randwrite8k
write: IOPS=9758, BW=76.2MiB/s (79.9MB/s)(2287MiB/30001msec)
randread8k
read: IOPS=5796, BW=45.3MiB/s (47.5MB/s)(1359MiB/30001msec)
write1k
write: IOPS=11.0k, BW=11.7MiB/s (12.2MB/s)(350MiB/30001msec)
read1k
read: IOPS=13.0k, BW=13.7MiB/s (14.3MB/s)(410MiB/30001msec)
randwrite1k
write: IOPS=11.7k, BW=11.4MiB/s (11.0MB/s)(343MiB/30001msec)
randread1k
read: IOPS=5317, BW=5318KiB/s (5446kB/s)(156MiB/30001msec)
多个物理磁盘挂载到同一目录的方法 (lvm 软raid)的更多相关文章
- Ubuntu18.04 磁盘挂载在某目录下
简介 记录Ubuntu18.04 桌面版系统下实现某个磁盘挂载到自己想要的目录下,内容参考网上教程,此处为自己操作记录. 查看当前所有的磁盘信息 命令:sudo fdisk -l 从列出的信息中可以看 ...
- ubuntu 挂载windows共享目录的方法
建立windows共享目录 右击要共享的文件夹-->属性-->高级共享-->添加用户-->添加完全控制权限 假设建立的共享地址为\\192.168.1.100\Linux 获取 ...
- linux服务器磁盘挂载操作
具体操作是:先对磁盘进行格式化,格式化后挂载到需要的挂载点,最后添加分区启动表,以便下次系统启动随机自动挂载.1.首先查看系统中磁盘信息,命令为:fdisk -l; 2.找到未使用的磁盘,对其进行格式 ...
- Linux磁盘挂载
mount命令 用于加载文件系统到指定的加载点.此命令的最常用于挂载cdrom,使我们可以访问cdrom中的数据,因为你将光盘插入cdrom中,Linux并不会自动挂载,必须使用Lin ...
- linux服务器磁盘挂载
1.先查看当前服务器挂载的磁盘个数 fdisk -l 2.将vdb磁盘挂载到/data目录下 mount /dev/vdb /data 3.df -h 检查磁盘挂载的情况
- Linux磁盘空间容量不够-通过新增磁盘-挂载原磁盘
首先上一张图 -------1)首先fdisk 一块磁盘并格式化 mkfs.ext4 /dev/sda15 --------2)将此磁盘挂载在mnt目录下,并将磁盘容量不够的磁盘所有文件进行复制到mn ...
- 如果ASM磁盘组由哪些物理磁盘组成?
我们知道用下面的方法可创建 ASM 磁盘,然后再创建逻辑的ASM组 以 root 用户身份创建 ASM 磁盘.# /etc/init.d/oracleasm createdisk VOL1 /dev/ ...
- 使用Megacli64对服务器物理磁盘做Raid并通过uuid方式挂载
需求说明:公司最近来了一批服务器,用于大数据业务部署.数据节点服务器由14块物理磁盘,其中有2块是900G的盘,12块是4T的盘.在服务器系统安装时,进入系统的BIOS界面:1)将2块900G的磁盘做 ...
- 磁盘分区以及Linux目录挂载详解
一.背景 一直以来,对于磁盘的分区以及Linux目录挂载的概念都不是很清晰,现在趁着春暖花开周末在家没事就研究了下它们,现在来分享我的理解. 二.概念详解 1.磁盘分区 磁盘分区是把物理的磁盘空间按照 ...
- LVM实现将2块磁盘总空间“合二为一”并挂载到同一目录
需求场景 将MySQL主机的2块18T的数据盘空间全部"合并"后挂载到/mysql_data目录下,要求文件系统格式化为xfs:已有关键信息梳理如下: 需要挂载的数据盘 /dev/ ...
随机推荐
- 痞子衡嵌入式:原来i.MXRT1170内部RAM的ECC初始化工作可全部由ROM完成
大家好,我是痞子衡,是正经搞技术的痞子.今天痞子衡给大家分享的是i.MXRT1170内部RAM的ECC初始化工作可全部由ROM完成. 痞子衡之前写了三篇文章 <M7 FlexRAM ECC> ...
- GaussDB(DWS)案例丨MERGE场景下语句不下推引起的性能瓶颈问题
本文分享自华为云社区<GaussDB(DWS)性能调优:MERGE场景下语句不下推引起的性能瓶颈问题案例>,作者:O泡果奶~. 1.[问题描述] 语句执行时间过长,且该语句performa ...
- 中秋国庆花式玩法,用低代码DIY假日大屏“Vlog”
本文分享自华为云社区 <[云享热点]中秋国庆花式玩法,用低代码DIY假日大屏"Vlog"(内附节日福利)>,作者:华为云社区精选. 中秋.国庆双节将至,你的八天小长 ...
- 数据交换不失控:华为云EDS,让你的数据你做主
摘要:华为云EDS在"可信.可控.可证"的框架基础上进行数据空间的关键设计,打造数据可控交换的全栈能力. 数字社会,每时每刻都有海量数据产生,数据也逐渐从生产过程的附属产物,逐渐成 ...
- 鸿蒙轻内核M核源码分析:中断Hwi
摘要:本文带领大家一起剖析了鸿蒙轻内核的中断模块的源代码,掌握中断相关的概念,中断初始化操作,中断创建.删除,开关中断操作等. 本文分享自华为云社区<鸿蒙轻内核M核源码分析系列五 中断Hwi&g ...
- 详解openGauss多线程架构启动过程
摘要:本文介绍openGauss数据库的启动过程,包括主线程,辅助线程及业务处理线程的启动过程. 本文分享自华为云社区<openGauss内核分析(一):openGauss 多线程架构启动过程详 ...
- 从java到JavaScript(2):对比Java/Go/Swift/Rust看Dart
Dart与Java的一些直观区别 Dart和java以及C#都差不多,基本上不用学习可以直接使用,从这里可以你可以了解Dart有些特别之处.其实对于Java开发人员来说Dart,还是相对好理解的 基本 ...
- ThreadPoolExecutor 使用
ThreadPoolExecutor 介绍 简写: package com.vipsoft.Thread; import java.util.concurrent.*; import java.uti ...
- python虚拟环境venv
Python3虚拟环境是为了在开发过程中隔离项目所需的 Python 环境.虚拟环境允许我们在同一台计算机上的不同项目中使用不同的 Python 版本和软件包,而不会相互干扰 首先创建一个虚拟环境的工 ...
- # github.com/coreos/etcd/clientv3/balancer/resolver/endpoint
linux使用go连接etcd集群时报错: # github.com/coreos/etcd/clientv3/balancer/resolver/endpoint /root/go/pkg/mod/ ...