ceph集群
ceph集群部署
ceph理解:
Ceph是一个分布式存储,可以提供对象存储、块存储和文件存储,其中对象存储和块存储可以很好地和各大云平台集成。其他具体介绍可见官网简介:http://docs.ceph.com/docs/master/start/intro/
三个节点地址及主机名对应:
192.168.10.100 node01
192.168.10.101 node02
192.168.10.102 node03
软件环境
操作系统:Centos 7.3
Openstack:N
Ceph:Jewel
[root@centos ~]# hostnamectl set-hostname node01
[root@centos ~]# hostnamectl set-hostname node02
[root@centos ~]# hostnamectl set-hostname node03
关闭firewalld、修改selinux
[root@node01 ~]# systemctl stop firewalld
[root@node01 ~]# systemctl disable firewalld
[root@node01 ~]# setenforce 0
[root@node01 ~]# sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/sysconfig/selinux
yum install wget vim -y
[root@node01 ~]# cat /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.10.100 node01
192.168.10.101 node02
192.168.10.102 node03
ssh实现三个节点免密登陆
[root@node01 ~]# ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
[root@node01 ~]# ssh-copy-id root@node01
[root@node01 ~]# ssh-copy-id root@node02
[root@node01 ~]# ssh-copy-id root@node03
三个节点:
wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo
[root@node01 yum.repos.d]# sed -i '/aliyuncs/d' /etc/yum.repos.d/CentOS-Base.repo
[root@node01 yum.repos.d]# sed -i '/aliyuncs/d' /etc/yum.repos.d/epel.repo
[root@node01 yum.repos.d]# sed -i 's/$releasever/7/g' /etc/yum.repos.d/CentOS-Base.repo
[root@node01 yum.repos.d]# cat ceph.repo
[ceph]
name=ceph
baseurl=http://mirrors.163.com/ceph/rpm-luminous/el7/x86_64/
gpgcheck=0
[ceph-noarch]
name=cephnoarch
baseurl=http://mirrors.163.com/ceph/rpm-luminous/el7/noarch/
gpgcheck=0
root@node01 yum.repos.d]#yum clean all
root@node01 yum.repos.d]#yum repolist
[root@node01 yum.repos.d]# scp /etc/yum.repos.d/* node02:/etc/yum.repos.d/
[root@node01 yum.repos.d]# scp /etc/yum.repos.d/* node03:/etc/yum.repos.d/
[root@node01 yum.repos.d]# scp /etc/hosts node02:/etc/
[root@node01 yum.repos.d]# scp /etc/hosts node03:/etc/
安装ntp,在所有ceph节点上执行
[root@node01 yum.repos.d]# yum install ntp ntpdate -y
[root@node01 yum.repos.d]# systemctl start ntpd
[root@node01 yum.repos.d]# systemctl enable ntpd
[root@node01 yum.repos.d]#ntpdate cn.ntp.org.cn
[root@node01 ]# yum install ceph-deploy ceph -y 三个节点
创建集群,生成一个新的ceph集群,集群包括ceph配置文件以及monitor的密钥环。
[root@node01 ~]# mkdir my-cluster
[root@node01 ~]# cd my-cluster/
[root@node01 my-cluster]# ceph-deploy new node01 node02 node03
安装ceph软件包(如果安装过程出现问题,可以重新执行得以解决)
yum -y install ceph ceph-radosgw ceph-release
[root@node01 my-cluster]# ceph-deploy install node01 node02 node03

在ceph-node1上创建第一个ceph monitor
ceph-deploy mon create-initial
[root@node01 my-cluster]# ceph-deploy mon create-initial
执行完命令后,当前目录会生成如下几个keyring:
[root@node01 yum.repos.d]#• {cluster-name}.client.admin.keyring
[root@node01 yum.repos.d]#• {cluster-name}.bootstrap-osd.keyring
[root@node01 yum.repos.d]#• {cluster-name}.bootstrap-mds.keyring
[root@node01 yum.repos.d]#• {cluster-name}.bootstrap-rgw.keyring
创建集群
[root@node01 yum.repos.d]#ceph-deploy new node01 node02 node03
在node01上创建osd
ceph-deploy disk list ceph-node01(列出disk)
[root@node01 my-cluster]# ceph-deploy osd create node01:/dev/sdb node01:/dev/sdc node02:/dev/sdb node02:/dev/sdc node03:/dev/sdb node03:/dev/sdc

查看集群状态
[root@node01 my-cluster]# ceph -s
cluster e1923c3b-8b3b-4284-9d18-33539e38b040
health HEALTH_WARN
clock skew detected on mon.node02, mon.node03
Monitor clock skew detected
monmap e1: 3 mons at
{node01=192.168.10.100:6789/0,node02=192.168.10.101:6789/0,node03=192.168.10.102:6789/0}
election epoch 6, quorum 0,1,2 node01,node02,node03
osdmap e29: 6 osds: 6 up, 6 in
flags sortbitwise,require_jewel_osds
pgmap v64: 64 pgs, 1 pools, 0 bytes data, 0 objects
202 MB used, 149 GB / 149 GB avail
64 active+clean

ceph集群的更多相关文章
- Ubuntu 14.04 部署 CEPH集群
注:下文的所有操作都在admin节点进行 1.准备三台虚拟机,其中一台作为admin节点,另外两台作为osd节点,并相应地用hostname命令将主机名修改为admin,osd0,osd1,最后修改/ ...
- ceph集群安装
所有 Ceph 部署都始于 Ceph 存储集群.一个 Ceph 集群可以包含数千个存储节点,最简系统至少需要一个监视器和两个 OSD 才能做到数据复制.Ceph 文件系统. Ceph 对象存储.和 C ...
- 使用虚拟机CentOS7部署CEPH集群
第1章 CEPH部署 1.1 简单介绍 Ceph的部署模式下主要包含以下几个类型的节点 Ø CephOSDs: A Ceph OSD 进程主要用来存储数据,处理数据的replication,恢复 ...
- docker创建ceph集群
背景 Ceph官方现在提供两类镜像来创建集群,一种是常规的,每一种Ceph组件是单独的一个镜像,如ceph/daemon.ceph/radosgw.ceph/mon.ceph/osd等:另外一种是最新 ...
- ceph集群搭建
CEPH 1.组成部分 1.1 monitor admin节点安装ceph-deploy工具 admin节点安装ceph-deploy 添加源信息 rm -f /etc/yum.repos.d/* w ...
- Ceph集群搭建及Kubernetes上实现动态存储(StorageClass)
集群准备 ceph集群配置说明 节点名称 IP地址 配置 作用 ceph-moni-0 10.10.3.150 centos7.5 4C,16G,200Disk 管理节点,监视器 monitor ...
- CEPH集群操作入门--配置
参考文档:CEPH官网集群操作文档 概述 Ceph存储集群是所有Ceph部署的基础. 基于RADOS,Ceph存储集群由两种类型的守护进程组成:Ceph OSD守护进程(OSD)将数据作为对象 ...
- Ceph集群更换public_network网络
1.确保ceph集群是连通状态 这里,可以先把机器配置为以前的x.x.x.x的网络,确保ceph集群是可以通的.这里可以执行下面的命令查看是否连通,显示HEALTH_OK则表示连通 2.获取monma ...
- Ceph 集群整体迁移方案(转)
场景介绍:在我们的IDC中,存在着运行了3-6年的Ceph集群的服务器,这些服务器性能和容量等都已经无法满足当前业务的需求,在购入一批高性能机器后,希望将旧机器上的集群整体迁移到新机器上,当然,是保证 ...
- ceph集群性能测试结果
对ceph存储集群(8台万兆服务器)从以下几个方面进行测试的结果 1.读写稳定性 无故障下的ceph集群性能完全满足业务对磁盘性能的需求. 测试数据结果如下表1-1,1-2 2.业务稳定性 ceph集 ...
随机推荐
- ARC102 C~D
C: 枚举中间点,计算两边点差值,把个数乘起来即可 #include<iostream> #include<cstdio> #include<algorithm> ...
- bzoj 3961: [WF2011]Chips Challenge【最小费用最大流】
参考:https://blog.csdn.net/Quack_quack/article/details/50554032 神建图系列 首先把问题转为全填上,最少扣下来几个能符合条件 先考虑第2个条件 ...
- 洛谷 P4013 数字梯形问题【最大费用最大流】
第一问:因为每个点只能经过一次,所以拆点限制流量,建(i,i',1,val[i]),然后s向第一行建(s,i,1,0),表示每个点只能出发一次,然后最后一行连向汇点(i',t,1,0),跑最大费用最大 ...
- linux 安装和远程连接
准备工作: 1.请安装好vmware 软件 2.linux 镜像包 3.putty 远程连接工具 任务: 设置好root 账号和普通账号 及设置网络 连接最简单使用桥接 只能ping 通 本机 nat ...
- C# 后台处理http请求
using System.Collections.Generic; using System.Linq; using System.Text; using System.Net; using Syst ...
- _bzoj1192 [HNOI2006]鬼谷子的钱袋【水题】
传送门:http://www.lydsy.com/JudgeOnline/problem.php?id=1192 求2^i > m的最小的i #include <cstdio> in ...
- 题解报告:hdu 1576 A/B(exgcd、乘法逆元+整数快速幂)
题目链接:http://acm.hdu.edu.cn/showproblem.php?pid=1576 Problem Description 要求(A/B)%9973,但由于A很大,我们只给出n(n ...
- [转]无废话SharePoint入门教程二[SharePoint发展、工具及术语]
本文转自:http://www.cnblogs.com/iamlilinfeng/p/3186919.html 一.前言 1.由于上一篇文章的标题命名失误,此篇标题写给百度搜索”什么是SharePoi ...
- 7.JAVA-类继承、覆写、final关键字
1.JAVA继承-extends 在java中,要想实现继承则使用extends关键字. 一般子类被称为派生类,父类称为基类(super) extends需要注意的地方: java不允许多重继承(一个 ...
- Struts2------拦截器和标签库和注解开发
一.解析Struts2源码中拦截器的执行 客户端请求Action,执行前端控制器,在前端控制器内部创建了Action的代理类,调用代理类的execute方法,在execute方法内部执行ActionI ...