存储分类:

DAS:直连存储    ide线  sata线   usd线   sas线

NAS:网络附加存储   nfs   samba   ftp

SAN:存储区域网络      issci

SDS:软件定义存储    ceph

ceph组件:OSD存储设备   Monitors集群监控组件  RGW(ceph-redowsgw)对象存储网关  MDS存放文件系统的元数据

注:montiitors至少需要3台   因为过半原则超过一半几台宕机整个集群都不能用了

例:  有三台机  41(node1)  42  (node2)   43  (node3)

1.部署ceph集群

环境准备    配置yum源

集群几台无密码连接(包括自己免密自己)

ssh-keygen

for i in 41  42   43  ;  do  ssh-copy-id  192.168.1.$i ; done

/etc/hosts  域名解析    (三台机都做)

vim /etc/hosts

192.168.1.41   node1

192.168.1.42   node2

192.168.1.43   node3

for i in 41  42   43  ;  do  scp /etc/hosts  192.168.1.$i :/etc/hosts ; done

配置NTP服务时间同步

vim  /etc/chrony.conf

server   192.168.1.254  iburst

systemclt   restart  chronyd

for  i   in    node1   node2  node3

do

scp  /etc/chrony.conf   $i:/etc/chrony.conf

ssh  $i  "systemctl  restart  chronyd"

done

安装ceph-deploy软件(node1 做就行)

yum  -y  install   ceph-deploy

mkdir  ceph-deploy

cd    ceph-deploy

给所有节点安装ceph相关软件包

for  i  in  node1  node2  node3

do

ssh  $i  "yum  -y  install  ceph-mon  ceph-osd   ceph-mds   ceph-redowsgw"

done

常见ceph集群配置在ceph-cluster目录下生成ceph配置文件

ceph-deploy  new   node1  node2  node3

在ceph.conf配置文件里定义mon主机是谁

初始化所有节点mon服务也是启动mon服务

ceph-deploy  mon   create-initial

2.创建OSD

给每台机准备3个磁盘  2个做存储服务器1各做缓存服务器     注:如果是机台比较多  mon  和osd  分开做的话  只需要给osd机台添加磁盘就可以了

把一个磁盘划分两个分区做令两外两个磁盘的缓存盘

for  i  in  node1  node2  node2

do

ssh  $i  "parted  /dev/vdb   mklabel  gpt"

ssh  $i    "parted  /dev/vdb  mkpart    primary  1   50%"

ssh  $i   "parted   /dev/vdb   mkpart   primary   50%   100%"

done

修改权限   (三台机都要做)

chown   ceph.ceph  /dev/vdb1            chown  ceph.ceph  /dev/vdb2

vim   /etc/vdev/rules.d/70-vdb.rules

ENV{DEVNAME}=="/dev/vdb1"     DENER="ceph",GROUP="ceph"

ENV{DEVNAME}=="/dev/vdb2"     DENER="ceph",GROUP="ceph"

初始化清空磁盘   node1做即可

ceph-deploy  disk   zap   node1:vdc    node1:vdd

ceph-deploy  disk   zap   node2:vdc    node1:vdd

ceph-deploy  disk   zap   node3:vdc    node1:vdd

创建osd存储空间

ceph-deploy  osd  create   node1:vdc:/dev/vdb1   node1:vdd:/dev/vdb2       node2:vdc:/dev/vdb1   node2:vdd:/dev/vdb2     node3:vdc:/dev/vdb1   node3:vdd:/dev/vdb2

ceph  -s      查看集群状态

3.创建ceph块存储

ceph  osd   lspools   查看存储池

创建镜像      rbd  create   demo-image      --image -feature  layering  --size   10G      注: demo-image是镜像名可自定义     10G是大小

rbd  info  demo-image     查看镜像

4 扩大空间

rbd  resize  --size   15G   demo-image

客户机访问需要:

yum -y install   ceph-common

scp  192.168.1.41:/ceph/ceph.conf     /etc/ceph       注:拷贝配置文件到客户机不然不知道集群在哪

scp  192.168.1.41:/etc/ceph/ceph.client.admin.keying    /etc/ceph      注:拷贝免密   避免无连接权限

rbd   showmapped    查看块存储详细信息

rbd   map    demo-image     查看可以挂载的存储

mkfs.xfs    /dev/rbd

mount   /dev/rbd    /mnt/

ceph分布式存储的更多相关文章

  1. Ceph分布式存储(luminous)部署文档-ubuntu18-04

    Ceph分布式存储(luminous)部署文档 环境 ubuntu18.04 ceph version 12.2.7 luminous (stable) 三节点 配置如下 node1:1U,1G me ...

  2. Centos7下使用Ceph-deploy快速部署Ceph分布式存储-操作记录

    之前已详细介绍了Ceph分布式存储基础知识,下面简单记录下Centos7使用Ceph-deploy快速部署Ceph环境: 1)基本环境 192.168.10.220 ceph-admin(ceph-d ...

  3. Ceph分布式存储-运维操作笔记

    一.Ceph简单介绍1)OSDs: Ceph的OSD守护进程(OSD)存储数据,处理数据复制,恢复,回填,重新调整,并通过检查其它Ceph OSD守护程序作为一个心跳 向Ceph的监视器报告一些检测信 ...

  4. Ceph分布式存储集群-硬件选择

    在规划Ceph分布式存储集群环境的时候,对硬件的选择很重要,这关乎整个Ceph集群的性能,下面梳理到一些硬件的选择标准,可供参考: 1)CPU选择Ceph metadata server会动态的重新分 ...

  5. Ceph分布式存储-原理介绍及简单部署

    1)Ceph简单概述Ceph是一个分布式存储系统,诞生于2004年,最早致力于开发下一代高性能分布式文件系统的项目.Ceph源码下载:http://ceph.com/download/.随着云计算的发 ...

  6. 简单介绍Ceph分布式存储集群

    在规划Ceph分布式存储集群环境的时候,对硬件的选择很重要,这关乎整个Ceph集群的性能,下面梳理到一些硬件的选择标准,可供参考: 1)CPU选择 Ceph metadata server会动态的重新 ...

  7. Ceph分布式存储-总

    Ceph分布式存储-总 目录: Ceph基本组成及原理 Ceph之块存储 Ceph之文件存储 Ceph之对象存储 Ceph之实际应用 Ceph之总结 一.Ceph基本组成及原理 1.块存储.文件存储. ...

  8. Ceph分布式存储部署过程

    前言: 环境介绍:此次部署系统为Cenots 7 MON.OSD 10.110.180.112 Admin MON.OSD 10.110.180.113 Node1 MON.OSD 10.110.18 ...

  9. Centos7下使用Ceph-deploy快速部署Ceph分布式存储-操作记录(转)

    之前已详细介绍了Ceph分布式存储基础知识,下面简单记录下Centos7使用Ceph-deploy快速部署Ceph环境:1)基本环境 1 2 3 4 5 6 7 8 9 10 11 12 13 14 ...

  10. 让我们了解 Ceph 分布式存储

    前言 最近在学习 kubernetes 过程中,想实现 pod 数据的持久化.在调研的过程中,发现 ceph 在最近几年发展火热,也有很多案例落地企业.在选型方面,个人更加倾向于社区火热的项目,Glu ...

随机推荐

  1. map和set的使用及top K问题

    1.map和set的应用和比较 map和set都是关联式容器,底层容器都是红黑树. map以键值对的形式进行存储,方便进行查找,关键词起到索引的作用,值则表示与索引相关联的数据,以红黑树的结构实现,插 ...

  2. python协程总结

    概述 python多线程中因为有GIL(Global Interpreter Lock 全局解释器锁 )的存在,所以对CPU密集型程序显得很鸡肋:但对IO密集型的程序,GIL会在调用IO操作前释放,所 ...

  3. 你了解MySQL中的多表联合查询吗?

    前言: 多表联合查询,其实就是我们MySQL中的join语句,经常会看到有人说join非常影响性能,不建议使用,你知道这是为什么呢?我们究竟可不可以用呢? 测试数据: CREATE TABLE `t2 ...

  4. Uber Go 语言编码规范

    Uber Go 语言编码规范 Uber 是一家美国硅谷的科技公司,也是 Go 语言的早期 adopter.其开源了很多 golang 项目,诸如被 Gopher 圈熟知的 zap.jaeger 等.2 ...

  5. Worktile正式发布全新研发产品!

    经过近一年时间的打磨,Worktile研发产品正式发布啦!和以往Worktile版本升级不同的是,这是一个全新的产品形态,目前已上线 Agile(敏捷开发).Pipe(持续交付).Testhub(测试 ...

  6. [Error]Archive for required library: 'C:/Users/fk/.m2/repository/com/sun/xml/bind/jaxb-core/2.2.7/jaxb-core-2.2.7.jar'

    Eclipse报错: Description Resource Path Location Type Archive for required library: 'C:/Users/fk/.m2/re ...

  7. Appium+python自动化(四十二)-Appium自动化测试框架综合实践- 寿终正寝完结篇(超详解)

    1.简介 按照上一篇的计划,今天给小伙伴们分享执行测试用例,生成测试报告,以及自动化平台.今天这篇分享讲解完.Appium自动化测试框架就要告一段落了. 2.执行测试用例&报告生成 测试报告, ...

  8. jQuery—— 选择器汇总

    jQuery里的选择器有3种: 元素选择器,id选择器, 类选择器:   $("div") // 选择所有<div>元素 $("#test") // ...

  9. shuf

    shi一个排序器,一般用来试用随机输入产生随机乱序的输出,他可以作用于输入文件或者数值范围,也可以对数组进行操作. -i -nN -e 1.掷骰子shuf -i 1-6 -n1 shuf -i 1-6 ...

  10. 如何评价 Vue 的 Function-based Component?

    作者:匿名用户链接:https://www.zhihu.com/question/325397290/answer/708418099来源:知乎 事实性错误: 那 vue 呢?它连 HOC 都没有,r ...