创建群集
[2019-03-20 18:35:04,232][ceph_deploy.conf][DEBUG ] found configuration file at: /home/sceph/.cephdeploy.conf
[2019-03-20 18:35:04,233][ceph_deploy.cli][INFO ] Invoked (2.0.1): /usr/bin/ceph-deploy new ceph1

sudo /usr/sbin/ip link show
sudo /usr/sbin/ip addr show

========================================
安装ceph文件

[2019-03-21 10:36:07,664][ceph_deploy.conf][DEBUG ] found configuration file at: /home/sceph/.cephdeploy.conf
[2019-03-21 10:36:07,666][ceph_deploy.cli][INFO ] Invoked (2.0.1): /usr/bin/ceph-deploy install ceph1 ceph2 ceph3

sudo yum clean all
sudo yum -y install epel-release
sudo yum -y install yum-plugin-priorities
sudo rpm --import https://download.ceph.com/keys/release.asc
sudo yum remove -y ceph-release
sudo yum install -y https://download.ceph.com/rpm-mimic/el7/noarch/ceph-release-1-0.el7.noarch.rpm
ensuring that /etc/yum.repos.d/ceph.repo contains a high priority
sudo yum -y install ceph ceph-radosgw

[2019-03-21 11:15:01,990][ceph1][INFO ] Running command: sudo ceph --version
[2019-03-21 11:15:02,126][ceph1][DEBUG ] ceph version 13.2.5 (cbff874f9007f1869bfd3821b7e33b2a6ffd4988) mimic (stable)

====================================
创建mon
[2019-03-21 15:29:30,161][ceph_deploy.conf][DEBUG ] found configuration file at: /home/sceph/.cephdeploy.conf
[2019-03-21 15:29:30,161][ceph_deploy.cli][INFO ] Invoked (2.0.1): /usr/bin/ceph-deploy mon create-initial

sudo ceph-mon --cluster ceph --mkfs -i ceph1 --keyring /var/lib/ceph/tmp/ceph-ceph1.mon.keyring --setuser 167 --setgroup 167

sudo systemctl enable ceph.target
sudo systemctl enable ceph-mon@ceph1

sudo systemctl start ceph-mon@ceph1
sudo ceph --cluster=ceph --admin-daemon /var/run/ceph/ceph-mon.ceph1.asok mon_status
sudo ceph --cluster=ceph --admin-daemon /var/run/ceph/ceph-mon.ceph1.asok mon_status
sudo ceph --cluster=ceph --admin-daemon /var/run/ceph/ceph-mon.ceph1.asok mon_status

sudo /usr/bin/ceph --connect-timeout=25 --cluster=ceph --admin-daemon=/var/run/ceph/ceph-mon.ceph1.asok mon_status
sudo /usr/bin/ceph --connect-timeout=25 --cluster=ceph --name mon. --keyring=/var/lib/ceph/mon/ceph-ceph1/keyring auth get client.admin
sudo /usr/bin/ceph --connect-timeout=25 --cluster=ceph --name mon. --keyring=/var/lib/ceph/mon/ceph-ceph1/keyring auth get client.bootstrap-mds
sudo /usr/bin/ceph --connect-timeout=25 --cluster=ceph --name mon. --keyring=/var/lib/ceph/mon/ceph-ceph1/keyring auth get client.bootstrap-mgr
sudo /usr/bin/ceph --connect-timeout=25 --cluster=ceph --name mon. --keyring=/var/lib/ceph/mon/ceph-ceph1/keyring auth get client.bootstrap-osd
sudo /usr/bin/ceph --connect-timeout=25 --cluster=ceph --name mon. --keyring=/var/lib/ceph/mon/ceph-ceph1/keyring auth get client.bootstrap-rgw

================================
推送配置
[2019-03-21 17:22:03,950][ceph_deploy.conf][DEBUG ] found configuration file at: /home/sceph/.cephdeploy.conf
[2019-03-21 17:22:03,950][ceph_deploy.cli][INFO ] Invoked (2.0.1): /usr/bin/ceph-deploy admin ceph1 ceph2 ceph3
Pushing admin keys and conf to ceph3

================================
创建mgr
[2019-03-21 17:26:53,722][ceph_deploy.conf][DEBUG ] found configuration file at: /home/sceph/.cephdeploy.conf
[2019-03-21 17:26:53,723][ceph_deploy.cli][INFO ] Invoked (2.0.1): /usr/bin/ceph-deploy mgr create ceph2
Deploying mgr, cluster ceph hosts ceph2:ceph2

sudo ceph --cluster ceph --name client.bootstrap-mgr --keyring /var/lib/ceph/bootstrap-mgr/ceph.keyring auth get-or-create mgr.ceph2 mon allow profile mgr osd allow * mds allow * -o /var/lib/ceph/mgr/ceph-ceph2/keyring
sudo systemctl enable ceph-mgr@ceph2

================================
创建三个osd,在admin node上
ceph-deploy osd create --data /dev/vdb ceph1
ceph-deploy osd create --data /dev/vdb ceph2
ceph-deploy osd create --data /dev/vdb ceph3

====================================
到此完毕,检查状态是否正常
sudo ceph health
sudo ceph -s
ceph quorum_status --format json-pretty

====================================
实践,创建pool,并存储一个对象
echo "11111" > my.txt
ceph osd pool create mypool 8
rados put m1 my.txt --pool=mypool
rados -p mypool ls
rados df

检查到底存了没有
[root@ceph1 ~]# rados -p mypool ls
m1
[root@ceph1 ~]# rados df
POOL_NAME USED OBJECTS CLONES COPIES MISSING_ON_PRIMARY UNFOUND DEGRADED RD_OPS RD WR_OPS WR
mypool 12 B 1 0 3 0 0 0 0 0 B 1 1 KiB

total_objects 1
total_used 3.0 GiB
total_avail 177 GiB
total_space 180 GiB
[root@ceph1 ~]# cat my.txt
11111111111

标识对象位置
[root@ceph1 ~]# ceph osd map mypool m1
osdmap e16 pool 'mypool' (1) object 'm1' -> pg 1.c3958388 (1.0) -> up ([1,2,0], p1) acting ([1,2,0], p1)
[root@ceph1 ~]#

删除对象
[root@ceph1 ~]# rados rm m1 --pool=mypool
删除pool
[root@ceph1 ~]# ceph osd pool rm mypool
Error EPERM: WARNING: this will *PERMANENTLY DESTROY* all data stored in pool mypool. If you are *ABSOLUTELY CERTAIN* that is what you want, pass the pool name *twice*, followed by --yes-i-really-really-mean-it.
[root@ceph1 ~]# ceph osd pool rm mypool mypool --yes-i-really-really-mean-it
Error EPERM: pool deletion is disabled; you must first set the mon_allow_pool_delete config option to true before you can destroy a pool

==================================
ceph mgr module enable dashboard
ceph dashboard create-self-signed-cert

禁用ssl
ceph config set mgr mgr/dashboard/ssl false

[root@ceph2 yum.repos.d]# ceph mgr services
{
"dashboard": "https://192.168.7.152:9800/"
}

===================================
[sceph@ceph1 ~]$ ceph-deploy mds create ceph2
=====================================

[sceph@ceph1 ~]$ ceph-deploy --overwrite-conf rgw create ceph1

radosgw-admin user create --uid=786 --display-name=fff --system
radosgw-admin user info --uid=786
ceph dashboard set-rgw-api-access-key Y2CAASJE4Z0HFAD26R1R
ceph dashboard set-rgw-api-secret-key dJzSwCHeMkqhbksV0zcDnalPzBPjHz3wRG3aRlSN

然后在dashboard上就可看到object gateway了
[root@ceph1 ceph]# systemctl status ceph-radosgw@ceph1

=====================================
vi /etc/ceph/ceph.conf
[client.rgw.ceph1]
rgw_frontends = civetweb port=9080

systemctl restart ceph-radosgw.target
systemctl -a

#ceph-deploy --overwrite-conf config push ceph1

=======================================
mon的数据库是rocksdb
https://github.com/facebook/rocksdb/wiki/Administration-and-Data-Access-Tool
在/var/lib/ceph/mon/ceph-ceph1/store.db
59 unzip rocksdb-master.zip
61 cd rocksdb-master
65 yum install gcc gcc-c++ perl
70 yum install perl
72 make
73 make install
83 scp -r 192.168.7.151:/var/lib/ceph/mon/ceph-ceph1/store.db ~/
87 cd ~/store.db/
90 ~/rocksdb/rocksdb-master/ldb --db=007031.sst scan
91 ~/rocksdb/rocksdb-master/sst_dump -h
92 ~/rocksdb/rocksdb-master/sst_dump --file=007031.sst --command=scan
93 ~/rocksdb/rocksdb-master/sst_dump --file=007031.sst --command=scan --read_num=5
97 ~/rocksdb/rocksdb-master/sst_dump --file=007031.sst --command=raw
99 less 007031_dump.txt

=======================================

[root@ceph1 rbdpool]# ceph pg map 8.13
osdmap e55 pg 8.13 (8.13) -> up [0,2,1] acting [0,2,1]

ceph安装过程的更多相关文章

  1. ceph 安装过程

    安装依赖: yum install -y yum-utils && yum-config-manager --add-repo https://dl.fedoraproject.org ...

  2. ceph安装

    使用ceph-deploy部署部署版本ceph-luminous   一,下载安装包,制作yum源,yum将挂载到192.168.100.100 (1)下载安装包 mkdir ceph-luminou ...

  3. webstorm下载&&安装过程&&打开项目

    一.webstorm下载 WebStorm 是jetbrains公司旗下一款JavaScript 开发工具.被广大中国JS开发者誉为"Web前端开发神器"."最强大的HT ...

  4. vagrant 1.8.6 安装过程及总结遇到的坑

    下面先总结遇到的问题,这些问题如果你也遇到,可能需要搜索很多次才能找到原因. 如果想看安装过程,可以先直接跳到后面第二部分部分. 1 问题汇总: 1.1 vagrant版本过高问题. vagrant ...

  5. 安装过程错误[INS-30131]

    问题:Oracle Database 安装过程错误[INS-30131]   原因:安装用户没有对临时文件夹的读写权限   解决方案:   1.以管理员身份运行cmd.exe 2.输入命令(需启动Se ...

  6. TortoiseGIT的安装过程详解

    TortoiseGIT简介 TortoiseGIT 是Git版本控制系统的一个免费开源客户端,它是git版本控制的 Windows 扩展.可以使你避免使用枯燥而且不方便的命令行.它完全嵌入 Windo ...

  7. RabbitMQ 集群安装过程详解

    一.安装Erlang 1.rabbitMQ是基于erlang的,所以首先必须配置erlang环境. 从erlang官网下载 otp 18.3.下载链接:http://erlang.org/downlo ...

  8. JAVA安装过程中出现的“javac不是内部或外部指令”的解决方法

    近来重新安装了JAVA,安装过程中出现问题,网上找到解决办法,汇总发布. 解决流程: 1.确定自己的环境变量设置没问题,没有出现遗漏 : . 等情况 (具体环境变量设置百度) 2.环境变量设置后 ,d ...

  9. LNMP安装过程

    LNMP一键安装包是什么? LNMP一键安装包是一个用Linux Shell编写的可以为CentOS/RadHat/Fedora.Debian/Ubuntu/Raspbian/Deepin VPS或独 ...

随机推荐

  1. 《JAVA设计模式》之状态模式(State)

    在阎宏博士的<JAVA与模式>一书中开头是这样描述状态(State)模式的: 状态模式,又称状态对象模式(Pattern of Objects for States),状态模式是对象的行为 ...

  2. [Python3 填坑] 015 __str__ 与 __repr__ 的区别

    目录 1. print( 坑的信息 ) 2. 开始填坑 2.1 上例子 2.2 关系与区别 Python 3.7.3 的官方文档 网上看到一个例子,运行了一下 简单地说 1. print( 坑的信息 ...

  3. E-puck简单入门

    E-puck是瑞士的一款小型的机器人,可以用于教学和实验,其外形小巧,并且整个结构也比较简单,如果出现损坏也比较容易维护. 其外形如下: 因为国内的资料很少,资料主要还是通过官方文档了解,而官方的文档 ...

  4. 《剑指offer》面试题7 用两个栈实现队列 Java版

    书中方法:队列是先进先出的,栈是先进后出的,试想把一串数压入A栈,接着一个个出栈并压入B栈,便会完成"头在下"到"头在上"的转变.B栈内还有元素时,直接出栈表示 ...

  5. stl(set和map)

    http://codeforces.com/gym/101911/problem/A Recently Monocarp got a job. His working day lasts exactl ...

  6. python学习第十五天字典的创建及增删改查操作方法

    字典是python比较常见的数据类型,跟列表一样,比如的字典的创建,字典的常见的操作的方法,增加,删除,修改,查找等方法,字典的一共的数据方法为 keys()  values() fromkeys() ...

  7. vue-devtools工具的安装

    vue-devtools是一款基于chrome游览器的插件,用于调试vue应用,这可以极大地提高我们的调试效率.接下来我们就介绍一下vue-devtools的安装 1.登录github,获取到vue- ...

  8. opencv视频流的读取和处理

    Opencv提供一个简单易用的框架以提取视频文件和USB摄像头中的图像帧,如果只是想读取某个视频,你只需要创建一个VideoCapture实例,然后在循环中提取每一帧.下面是一个简单的代码 #incl ...

  9. RabbitMQ ——四种ExChange及完整示例

    RabbitMQ常用的Exchange Type有fanout.direct.topic.headers这四种,下面分别进行介绍. 这四种类的exchange分别有以下一些属性,分别是: name:名 ...

  10. redis的hmset乐观锁的实现

    1.lua脚本(集成实现了乐观锁,hmset ,expire等) local key=KEYS[1]; local oldVerion=tonumber(ARGV[1]); local seconds ...