ceph 剔除osd
先将osd.2移出集群
root@ceph-monster:~# ceph osd out osd.2
marked out osd.2.
root@ceph-monster:~# ceph osd tree
ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 0.79999 root default
-2 0.39999 host ceph-monster
0 0.20000 osd.0 up 1.00000 1.00000
1 0.20000 osd.1 up 1.00000 1.00000
-3 0.39999 host ceph-node1
2 0.20000 osd.2 up 0 1.00000
3 0.20000 osd.3 up 1.00000 1.00000
root@ceph-monster:~# ceph osd stat
osdmap e275: 4 osds: 4 up, 3 in; 137 remapped pgs
down掉osd.2并删除
root@ceph-monster:~# ceph osd down osd.2 ; ceph osd rm osd.2
marked down osd.2.
removed osd.2
root@ceph-monster:~# ceph osd tree
ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 0.79999 root default
-2 0.39999 host ceph-monster
0 0.20000 osd.0 up 1.00000 1.00000
1 0.20000 osd.1 up 1.00000 1.00000
-3 0.39999 host ceph-node1
2 0.20000 osd.2 DNE 0
3 0.20000 osd.3 up 1.00000 1.00000
root@ceph-monster:~# ceph osd stat
osdmap e281: 3 osds: 3 up, 3 in; 137 remapped pgs
删除osd.2的crush map
root@ceph-monster:~# ceph osd crush rm osd.2
removed item id 2 name 'osd.2' from crush map
root@ceph-monster:~# ceph osd tree
ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 0.59999 root default
-2 0.39999 host ceph-monster
0 0.20000 osd.0 up 1.00000 1.00000
1 0.20000 osd.1 up 1.00000 1.00000
-3 0.20000 host ceph-node1
3 0.20000 osd.3 up 1.00000 1.00000
root@ceph-monster:~# ceph osd stat
osdmap e285: 3 osds: 3 up, 3 in
删除auth
root@ceph-monster:~# ceph auth del osd.2
updated
停掉osd进程
root@ceph-node1:~# /etc/init.d/ceph stop osd.2
=== osd.2 ===
Stopping Ceph osd.2 on ceph-node1...kill 1190...kill 1190...done
ceph 剔除osd的更多相关文章
- 影响性能的关键部分-ceph的osd journal写
在前面一篇文章中,我们看到,当使用filestore时,osd会把磁盘分成data和journal两部分.这主要是为了支持object的transaction操作.我的想法是,ceph需要具有数据保护 ...
- ceph增加osd流程
假如需要新增一个主机名:osd4 ip:192.168.0.110的OSD1.在osd4创建挂载目录及放置配置文件的目录 ssh 192.168.0.110 (这里是从mon主机ssh到osd4主机) ...
- ceph存储osd启动异常处理和正常启停操作
机器角色:cloudstack虚拟机的宿主机:ceph存储机器. 事件:ceph存储的物理机器由于内存异常,需要停机更换,仅仅是把该物理机上面的虚拟机迁移走,同时启动了停机维护,然后就直接关机.结果造 ...
- ceph之osd
一.删除osd ceph osd out 1ceph osd down 1systemctl stop ceph-osd@1ceph osd crush remove osd.1ceph osd rm ...
- Ceph更换OSD磁盘
目录 简介 更换OSD操作步骤 1. 故障磁盘定位 2. 摘除故障磁盘 3. 重建raid0 4. 重建osd 控制数据恢复及回填速度 简介 首先需要说明的是,ceph的osd是不建议做成raid10 ...
- ceph添加osd(ceph-deploy)
修改主机名和 /etc/hosts 关闭防火墙和 SELINUX 安装和配置 NTP ceph-deploy 节点安装 安装 ceph-deploy sudo yum install ceph-dep ...
- ceph修复osd为down的情况
尝试一.直接重新激活所有osd 1.查看osd树 root@ceph01:~# ceph osd tree ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-A ...
- ceph 指定OSD创建pool
https://my.oschina.net/wangzilong/blog/1549690 ceph集群中允许使用混合类型的磁盘,比如一部分磁盘是SSD,一部分是STAT.如果针对某些业务小高速磁盘 ...
- Ceph删除OSD上一个异常object
前言 ceph里面的数据是以对象的形式存储在OSD当中的,有的时候因为磁盘的损坏或者其它的一些特殊情况,会引起集群当中的某一个对象的异常,那么我们需要对这个对象进行处理 在对象损坏的情况下,启动OSD ...
随机推荐
- codeDecodeError ascii codec can't decode byte 0xe2 in position 44 ordinal not in range(128)
- Nacos学习
Nacos是阿里开源的一个新框架,在分布式的架构中,Nacos同时扮演着服务注册中心和配置中心的角色.今天主要讲的是Nacos作为服务注册中心. 分布式中著名的CAP理论,任何一种服务注册中心都只能实 ...
- IDEA版本控制忽略文件或目录
写在前面 废话不多说了, 新创建了个helloworld, 见图: 这谁受得了啊 修改配置 在上图红框内部的后面添加: *.iml;*.idea;*.gitignore;*.sh;*.classpat ...
- 软件定义网络基础---REST API的设计规范
一:REST API的设计 REST API是基于HTTP协议进行设计的,由HTTP动词+URI组成 (一)HTTP动词 (二)资源的原型 文档(Document): 文档是资源的单一表现形式: 集合 ...
- bat curl 定时请求
@echo off :loop call:sleep 30 ::调用方法call:sleep [毫秒] (1秒=1000毫秒) curl https://stage.coolfen.com/suppl ...
- js 模糊搜索
function fuzzysearch (needle, haystack) { var hlen = haystack.length; var nlen = needle.length; if ( ...
- git初次登陆使用
一. 安装git 二. 在当前项目根目录点击鼠标右键,出来下图: 点击进入git命令行界面. 三.初始化项目 git init 四. 添加所有文件到项目中 git add . 五. 尝试提交所有文件 ...
- Sql server 中将数据行转列列转行(二)
老规矩,先弄一波测试数据,数据填充代码没有什么意义,先折叠起来: /* 第一步:创建临时表结构 */ CREATE TABLE #Student --创建临时表 ( StuName ), --学生名称 ...
- VMware vSphere6.0 服务器虚拟化部署安装图解(最全,最详细)-搭建的所有步骤
VMware vSphere6.0 服务器虚拟化部署安装图解 一 .VMware vSphere部署的前期规划要点 1.vSphere的优点 (略) 2如何利用现在的设备架构虚拟化环境 在虚拟化过程中 ...
- [转帖]FastDFS图片服务器单机安装步骤
FastDFS图片服务器单机安装步骤 https://www.cnblogs.com/yuesf/p/11847103.html 前面已经讲 一张图秒懂微服务的网络架构,通过此文章可以了解FastDF ...