CentOS7.6部署ceph环境
CentOS7.6部署ceph环境
测试环境:
|
节点名称 |
节点IP |
磁盘 |
节点功能 |
|
Node-1 |
10.10.1.10/24 |
/dev/sdb |
监控节点 |
|
Node-2 |
10.10.1.20/24 |
/dev/sdb |
OSD节点 |
|
Node-3 |
10.10.1.30/24 |
/dev/sdb |
OSD节点 |
步骤:
- 主机信息配置
1.1. 修改三台主机的主机名
[root@Node-1 ~]# hostnamectl set-hostname Node-1
[root@Node-2 ~]# hostnamectl set-hostname Node-2
[root@Node-3 ~]# hostnamectl set-hostname Node-3
1.2. 修改三台主机的hosts文件,增加以下记录:
[root@Node-1 ~]# vi /etc/hosts
10.10.1.10 Node-1
10.10.1.20 Node-2
10.10.1.30 Node-3
1.3. 关闭三台主机的防火墙和Selinux
[root@Node-1 ~]# systemctl stop firewalld.sevice
[root@Node-1 ~]# systemctl disable firewalld.sevice
[root@Node-1 ~]# vi /etc/sysconfig/selinux
SELINUX=disabled
1.4. 创建集群用户cephd
[root@Node-1 ~]# useradd cephd
1.5. 在主节点上配置cephd无密码访问
[root@Node-1 ~]# ssh-keygen -t rsa
[root@Node-1 ~]# su – cephd
[cephd@node-1 ~]$ ssh-copy-id cephd@Node-2
[cephd@node-1 ~]$ ssh-copy-id cephd@Node-3
[cephd@node-1 ~]$ cd .ssh/
[cephd@node-1 .ssh]$ vi config
Host Node-1
Hostname Node-1
User cephd
Host Node-2
Hostname Node-2
User cephd
Host Node-3
Hostname Node-3
User cephd
1.6. 更换国内阿里云的yum源
mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.backup
wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
yum clean all
yum makecache
1.7. 安装ceph
[root@Node-1 ~]# yum -y install ceph
1.8. 安装ceph-deploy
[root@Node-1 ~]# yum -y install ceph-deploy
1.9. 部署ceph集群并且创建cluster目录
[cephd@node-1 ~]$ mkdir cluster
[cephd@node-1 ~]$ cd cluster
[cephd@node-1 cluster]$ ceph-deploy new Node-1 Node-2 Node-3
[cephd@node-1 cluster]$ vi ceph.conf
[global]
fsid = 77472f89-02d6-4424-8635-67482f090b09
mon_initial_members = Node-1
mon_host = 10.10.1.10
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx
osd pool default size = 2
public network=10.10.1.0/24
2.0.安装ceph
[cephd@node-1 cluster]$ sudo ceph-deploy install Node-1 Node-2 Node-3
2.1.配置初始monitor
[cephd@node-1 cluster]$ sudo ceph-deploy mon create-initial
[cephd@node-1 cluster]$ ls -l
total 164
-rw------- 1 cephd cephd 71 Jun 21 10:31 ceph.bootstrap-mds.keyring
-rw------- 1 cephd cephd 71 Jun 21 10:31 ceph.bootstrap-mgr.keyring
-rw------- 1 cephd cephd 71 Jun 21 10:31 ceph.bootstrap-osd.keyring
-rw------- 1 cephd cephd 71 Jun 21 10:31 ceph.bootstrap-rgw.keyring
-rw------- 1 cephd cephd 63 Jun 21 10:31 ceph.client.admin.keyring
-rw-rw-r-- 1 cephd cephd 249 Jun 21 10:20 ceph.conf
-rw-rw-r-- 1 cephd cephd 139148 Jul 5 19:20 ceph-deploy-ceph.log
-rw------- 1 cephd cephd 73 Jun 21 10:18 ceph.mon.keyring
[cephd@node-1 cluster]$
2.2.检查群集状态
[cephd@node-1 cluster]$ ceph -s
cluster:
id: 77472f89-02d6-4424-8635-67482f090b09
health: HEALTH_OK
services:
mon: 1 daemons, quorum Node-1
mgr: Node-1(active), standbys: Node-2, Node-3
mds: bjdocker-1/1/1 up {0=Node-1=up:active}, 2 up:standby
osd: 3 osds: 3 up, 3 in
data:
pools: 2 pools, 128 pgs
objects: 23 objects, 5.02MiB
usage: 3.07GiB used, 207GiB / 210GiB avail
pgs: 128 active+clean
[cephd@node-1 cluster]$
2.3.创建POOL
[cephd@node-1 cluster]$ ceph osd pool create store 64
[cephd@node-1 cluster]$ ceph osd pool create app 64
[root@node-1 ~]# rados df
POOL_NAME USED OBJECTS CLONES COPIES MISSING_ON_PRIMARY UNFOUND DEGRADED RD_OPS RD WR_OPS WR
app 0B 0 0 0 0 0 0 0 0B 47077 91.8GiB
store 5.02MiB 23 0 46 0 0 0 126 13.9MiB 3698 6.78MiB
total_objects 23
total_used 3.07GiB
total_avail 207GiB
total_space 210GiB
[root@node-1 ~]#
2.4.创建OSD
ceph-deploy osd create --data /dev/sdb Node-1
ceph-deploy osd create --data /dev/sdb Node-2
ceph-deploy osd create --data /dev/sdb Node-3
2.5.每台主机创建挂载点/data
[root@node-1 ~]# mkdir /data
2.5.创建cephfs
[cephd@node-1 cluster]$ sudo ceph-deploy mds create Node-1 Node-2 Node-3
[cephd@node-1 cluster]$ sudo ceph fs new bjdocker app store
[cephd@node-1 cluster]$ ceph mds stat
bjdocker-1/1/1 up {0=Node-1=up:active}, 2 up:standby
[cephd@node-1 cluster]$
2.6.cephfs文件系统挂载
mount -t ceph 10.10.1.10:6789,10.10.1.20:6789,10.10.1.30:6789:/ /data -o name=admin,secret=AQBO6gxdoWbLMBAAJlpIoLRpHlBFNCyVAejV+g==
[cephd@node-1 cluster]$ cat ceph.client.admin.keyring
[client.admin]
key = AQBO6gxdoWbLMBAAJlpIoLRpHlBFNCyVAejV+g==
[cephd@node-1 cluster]$
[cephd@node-1 cluster]$ df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/centos-root 50G 2.8G 48G 6% /
devtmpfs 3.9G 0 3.9G 0% /dev
tmpfs 3.9G 0 3.9G 0% /dev/shm
tmpfs 3.9G 8.9M 3.9G 1% /run
tmpfs 3.9G 0 3.9G 0% /sys/fs/cgroup
/dev/mapper/centos-home 67G 33M 67G 1% /home
/dev/sda1 1014M 163M 852M 17% /boot
tmpfs 799M 0 799M 0% /run/user/0
10.10.1.10:6789,10.10.1.20:6789,10.10.1.30:6789:/ 99G 0 99G 0% /data
[cephd@node-1 cluster]$
集群PG的计算
PG 总数=(OSD 总数* 100 )/最大副本数
集群的Pool的PG数
PG总数=((OSD总数*100)/最大副本数 )/ 池数
安装失败后清理:
ceph-deploy purgedata [HOST] [HOST...]
ceph-deploy forgetkeys
命令:
[root@node-1 ceph]# ceph –s //集群健康状况
[root@node-1 ceph]# ceph osd tree //查看osd
CentOS7.6部署ceph环境的更多相关文章
- CentOS7.6部署k8s环境
CentOS7.6部署k8s环境 测试环境: 节点名称 节点IP 节点功能 K8s-master 10.10.1.10/24 Master.etcd.registry K8s-node-1 10.10 ...
- CentOS7.5 部署Ceph luminous
环境 两台CentOS7.5,每台各两块硬盘部署OSD public network = 10.0.0.0/24 cluster network = 172.16.0.0/24 导入ceph的rpm ...
- Centos7下部署ceph 12.2.1 (luminous)集群及RBD使用
前言 本文搭建了一个由三节点(master.slave1.slave2)构成的ceph分布式集群,并通过示例使用ceph块存储. 本文集群三个节点基于三台虚拟机进行搭建,节点安装的操作系统为Cento ...
- django2.0 + python3.6 在centos7 下部署生产环境的一些注意事项
一:mysql 与环境选用的坑 目前, 在生产环境部署django有三种方式: 1. apache + mod_wsgi 2. nginx + uwsigi 3. nginx + supervisor ...
- CentOS7.2 部署Ceph分布式存储
1.1 环境准备 主机名 IP地址 ceph-admin 192.168.16.220 ceph-node1,ceph-mon 192.168.16.221 ceph-node2,ceph-mon 1 ...
- centos7下部署iptables环境纪录(关闭默认的firewalle)
CentOS7默认的防火墙不是iptables,而是firewall.由于习惯了用iptables作为防火墙,所以在安装好centos7系统后,会将默认的firewall关闭,并另安装iptables ...
- centos7下部署iptables环境纪录(关闭默认的firewalle)(转)
下面介绍centos7关闭firewall安装iptables,并且开启80端口.3306端口的操作记录:[root@localhost ~]# cat /etc/redhat-release Cen ...
- CentOS7单机部署lamp环境和apache虚拟主机
(1)apache介绍 apache : httpd.apache.org 软件包:httpd 端口服务:80/tcp(http) 443/tcp(https,http+ssl) 配置文件: /etc ...
- centos7.1部署java环境服务器
1.检查操作系统自带java是jdk还是jre(否有javac,本例中没有javac) [root@bogon ~]# ls -l /usr/lib/jvm/总用量 0drwxr-xr-x. 3 ro ...
随机推荐
- 关于element-ui的弹框问题
el-dialog获取数据. el-dialog加载到页面中的时候,其实已经加载好了.只是默认隐藏了. 第一次点击的时候弹出,为何拿不到数据?之后再次操作就一点问题都没有了.
- 通过反射 修改访问和修改属性的值 Day25
package com.sxt.field; /* * 通过反射拿到属性值 * 修改public属性值 * 修改private属性值 * 缺点:可读性差:代码复杂 * 优点:灵活:可以访问修改priv ...
- MaxCompute 费用暴涨之新增SQL分区裁剪失败
现象:因业务需求新增了SQL任务,这SQL扫描的表为分区表,且SQL条件里表只指定了一个分区,按指定的分区来看数据量并不大,但是SQL的费用非常高.费用比预想的结果相差几倍甚至10倍以上. 若只知道总 ...
- 块级元素及内联元素对margin、padding的态度
1.块级元素 margin:跟标准一样,设置该块级元素边框与同级兄弟元素或者父元素的距离,俗称外边距. padding:先延伸边框(也就是优先改变元素尺寸而不动元素中内容的位置),当边框碰到父元素的边 ...
- 开发者说:Sentinel 流控功能在 SpringMVC/SpringBoot 上的实践
从用户的视角来感受一个开源项目的成长,是我们推出「开发者说」专栏的初衷,即在开发者进行开源项目选型时,提供更为立体的项目信息.专栏所有内容均来自作者原创/投稿,本文是「开发者说」的第6篇,作者 Jas ...
- 如何解决iOS内存错误
由于iOS5.0之前没有自动应用计数机制,也没有Java那样的垃圾回收功能.我们都需要自己管理和控制对象的回收,这是一件很麻烦的事情,也是做iOS项目中最容易出现的问题.如果不掌握这些方法,调试这些问 ...
- 权重衰减(weight decay)与学习率衰减(learning rate decay)
本文链接:https://blog.csdn.net/program_developer/article/details/80867468“微信公众号” 1. 权重衰减(weight decay)L2 ...
- 洛谷P2504 [HAOI2006]聪明的猴子
#include<bits/stdc++.h> using namespace std; ; ; int n,m,k,ans; double Max; int monkey[maxn]; ...
- saltStack_template
模版使用 新建文件:vim dns.sls vim file/resolv.conf 执行 : [root@server_client base]# salt \* state.sls dns ...
- poj 3862 && LA 4589 Asteroids (三维凸包+多面体重心)
3862 -- Asteroids ACM-ICPC Live Archive 用给出的点求出凸包的重心,并求出重心到多边形表面的最近距离. 代码如下: #include <cstdio> ...