Ceph部署(一)集群搭建
背景
Ceph简介
Ceph是一个分布式存储,可以提供对象存储、块存储和文件存储,其中对象存储和块存储可以很好地和各大云平台集成。一个Ceph集群中有Monitor节点、MDS节点(可选,用于文件存储)、至少两个OSD守护进程。
Ceph OSD:OSD守护进程,用于存储数据、处理数据拷贝、恢复、回滚、均衡,并通过心跳程序向Monitor提供部分监控信息。一个Ceph集群中至少需要两个OSD守护进程。
Monitor:维护集群的状态映射信息,包括monitor、OSD、Placement Group(PG)。还维护了Monitor、OSD和PG的状态改变历史信息。
MDS:存储Ceph文件系统的元数据。
环境规划
4台服务器:1台作为Monitor,1台作为OSD RGW,还有两台作为OSD。ps:我们不搭建CephFS。
所有服务器都安装Ubuntu 16.04。
环境准备:
编辑hosts文件及hostname
分别将Monitor节点定义为node1,两台OSD节点定义为node2、node3,RGW节点定义为node4。
打开Monitor节点的/etc/hostname文件,内容修改为node1,保存退出。但该文件需OS重启后才能生效,因此需再手动执行命令让其立刻生效,命令为:
# hostname node1
再分别打开各节点的/etc/hosts文件,加入这四个节点ip与名称的对应关系,类似如下:
127.0.0.1 localhost
127.0.1.1 node1
192.168.1.100 node1
192.168.1.101 node2
192.168.1.102 node3
192.168.1.103 node4
# The following lines are desirable for IPv6 capable hosts
::1 localhost ip6-localhost ip6-loopback
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
搭建NTP环境
使用Monitor服务器作为NTP server,另外3台作为NTP client。
NTP server
需安装NTP服务,执行命令:apt-get install ntp。
完成后,修改配置文件/etc/ntp.conf。因为环境不通外网,无法访问Ubuntu时间源。并且,这个环境也没有其他的NTP时间源,因此,在这里,我们使用Monitor服务器作为NTP server的本地时间源。在文件末尾添加如下内容:
server 127.127.1.0 # 如果有其他的NTP源,可以更换这里的ip地址。
fudge 127.127.1.0 stratum 10
并注销掉以Ubuntu时间源的部分。
#pool 0.ubuntu.pool.ntp.org iburst
#pool 1.ubuntu.pool.ntp.org iburst
#pool 2.ubuntu.pool.ntp.org iburst
#pool 3.ubuntu.pool.ntp.org iburst
#pool ntp.ubuntu.com
修改完成后,保存退出。并重启ntp服务,执行命令:service ntp restart。
注意:NTP服务刚重启时,需要一定的时间来同步时间源,不能立刻提供服务,需一定时间后才能正常工作(一般5分钟左右)。可在NTP server端执行明令ntpq -p来查看服务状态。
NTP client
需安装ntpdate,执行命令:apt install ntpdate。
安装后,执行命令ntpdate [-d] {serverIp}来同步时间。-d表示打开调试信息,可不打开。例如:
# ntpdate 109.105.115.67
成功时会出现类似提示:ntpdate[39600]: step time server 109.105.115.67 offset -46797.696033 sec。如果出现:ntpdate[28489]: no server suitable for synchronization found。可能是因为server还未能正常提供服务,等待一段时间后再次尝试。
同步成功后,还需要将时间写入硬件时钟,防止OS重启后时间恢复至原样。执行命令hwclock –w。
安装SSH SERVER
在所有的节点上都安装SSH server服务。
# apt-get install openssh-server
因为我们搭建的Ceph直接使用root用户,所以需要修改ssh配置文件/etc/ssh/sshd_config,搜索PermitRootLogin选项,将其参数改为yes。保存退出文件,并重启SSH服务,执行命令:service ssh restart。
使用SSH免密码登录
生成SSH keys,不要设置passphrase,所有的输入选项都直接回车。
# ssh-keygen
Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /root/.ssh/id_rsa.
Your public key has been saved in /root/.ssh/id_rsa.pub.
拷贝这个key到所有的节点。
# ssh-copy-id node1
# ssh-copy-id node2
# ssh-copy-id node3
# ssh-copy-id node4
设置网络代理(可选)
如果整个内网环境需要设置网络代理才能使用apt-get安装程序,那么需要在配置文件/etc/environment中添加,如:
http_proxy="http://[proxy-ip]:[proxy-port]"
https_proxy=https://[proxy-ip]:[proxy-port]
设置完成后,执行命令:export http_proxy="http://[proxy-ip]:[proxy-port]"; export https_proxy=https://[proxy-ip]:[proxy-port],使得配置立即生效。
注意:一定要在/etc/environment中配置,而不能在诸如/etc/profile、~/.profile等类似文件配置。因为,安装ceph时,会使用ssh来连接远程节点并apt-get安装程序,但ssh只能识别/etc/environment中的环境变量,设置在其他文件中会导致网络访问失败。
注意二:所有节点都需要设置。
部署Ceph存储
这里,我们直接在Monitor节点node1上安装ceph-deploy,然后通过ceph-deploy在node1上部署Monitor,在node2和node3节点上部署OSD,最后,在node4上部署Ceph网关rgw。
在node1上创建一个目录,用来维护ceph-deploy生成的配置信息。ceph-deploy命令会在当前目录生成输出文件,确保执行该命令时位于对应的目录。
mkdir my-cluster
cd my-cluster
安装ceph-deploy
更新镜像仓库,并安装ceph-deploy。
apt-get update && sudo apt-get install ceph-deploy
重新开始部署Ceph
在安装过程中如果遇到了问题,想重新开始安装,执行以下命令来清空配置。
ceph-deploy purgedata {ceph-node} [{ceph-node}]
ceph-deploy forgetkeys
如果还想清空Ceph包,需执行:
ceph-deploy purge {ceph-node} [{ceph-node}]
注意:在实际的操作中,如果直接执行ceph-deploy purgedata,总是会报错,提示Ceph还安装在该节点上,拒绝执行清空操作。因此我都是先执行ceph-deploy purge,再执行ceph-deploy purgedata和ceph-deploy forgetkeys。
部署Ceph
创建集群
ceph-deploy new {initial-monitor-node(s)}
如:
ceph-deploy new node1
在当前目录下使用ls和cat命令检查ceph-deploy输出结果,可以看到一个ceph配置文件,一个密钥环以及为新集群创建的日志文件。
修改osd参数
因为我们环境中只有两个OSD,而Ceph模式的副本个数为3,因此我们需要修改配置文件Ceph.conf,在[global]部分增加如下配置:
osd pool default size = 2
如果OSD存储数据分区的文件系统类型不是xfs,则需要设置一些osd变量,否则OSD不能正常启动,报错为“ERROR: osd init failed: (36) File name too long”。同样,在Ceph.conf文件,[global]部分增加如下配置:
osd max object name len = 256
osd max object namespace len = 64
配置Ceph网络参数
如果环境中有多种网络,那么需要在Ceph.conf的[global]部分下增加如下配置。
public network = {ip-address}/{netmask}
如果环境中只有一种网络,则不需要此配置。关于网络配置更多信息,可参考:http://docs.ceph.com/docs/master/rados/configuration/network-config-ref/
安装Ceph
ceph-deploy install {ceph-node}[{ceph-node} ...]
例如:
ceph-deploy install node1 node2 node3 node4
执行命令后,会在每个节点上都安装Ceph。注意:如果执行过ceph-deploy purge命令,则需要重新安装Ceph。
安装Monitor
安装并初始化Monitor,收集keys:
# ceph-deploy mon create-initial
执行完命令后,当前目录会生成如下keyring:
• {cluster-name}.client.admin.keyring
• {cluster-name}.bootstrap-osd.keyring
• {cluster-name}.bootstrap-mds.keyring
• {cluster-name}.bootstrap-rgw.keyring
创建OSD数据目录
OSD的数据目录可以使用单独的分区,也可以只使用已有分区的目录。这里我们是直接使用目录的方式。如果需要使用单独数据分区和日志分区,可参考: http://docs.ceph.com/docs/master/rados/deployment/ceph-deploy-osd/。
添加两个OSD。
# ssh node2
# sudo mkdir /var/local/osd0
# chown ceph:ceph /var/local/osd0
# exit
# ssh node3
# sudo mkdir /var/local/osd1
# chown ceph:ceph /var/local/osd1
# exit
准备OSD
ceph-deploy osd prepare {ceph-node}:/path/to/directory
如:
# ceph-deploy osd prepare node2:/var/local/osd0 node3:/var/local/osd1
激活OSD
ceph-deploy osd prepare {ceph-node}:/path/to/directory
如:
# ceph-deploy osd prepare node2:/var/local/osd0 node3:/var/local/osd1
拷贝配置文件和管理key
ceph-deploy admin {admin-node} {ceph-node}
如:
# ceph-deploy admin node1 node2 node3
确保ceph.client.admin.keyring的权限正确,在每个节点上执行:
chmod +r /etc/ceph/ceph.client.admin.keyring
检查集群状态
# ceph –s
集群应该返回health HEALTH_OK,并且所有pg都是active+clean的状态,这样部署就完全没问题了。
部署rgw网关
如果要使用Ceph的对象存储,就需要部署rgw网关。执行以下步骤创建一个新的rgw实例:
ceph-deploy rgw create {gateway-node}
如:
# ceph-deploy rgw create node4
验证Ceph
当显示状态健康时,可写入数据并查看数据。
创建一个普通文本文件testfile.txt,并向其写入数据。
创建一个pool。格式为:rados mkpool {pool-name},执行:
# rados mkpool data
将文件写入pool。格式为:rados put {object-name} {file-path} --pool={pool-name},执行:
# rados put test-object-1 testfile.txt --pool=data
如果文件不大,应该很快就写完并成功了。如果卡主较长时间,则可能是出错了,需要排查问题。
查看文件是否存在于pool中,格式为:rados -p {pool-name} ls,执行:
# rados -p data ls
确定文件的位置。格式为:ceph osd map {pool-name} {object-name},执行:
# ceph osd map data test-object-1
从pool中读取文件。格式为:rados get {object-name} --pool={pool-name} {file-path} ,执行:
# rados get test-object-1 --pool=data myfile
可比对读出的文件myfile和原文件testfile.txt是否相同,执行命令:diff myfile testfile.txt。
从pool中删除文件。格式为:rados rm {object-name} --pool={pool-name},执行:
# rados rm test-object-1 --pool=data
Ceph部署(一)集群搭建的更多相关文章
- kafka系列一、kafka安装及部署、集群搭建
一.环境准备 操作系统:Cent OS 7 Kafka版本:kafka_2.10 Kafka官网下载:请点击 JDK版本:1.8.0_171 zookeeper-3.4.10 二.kafka安装配置 ...
- 初试 Centos7 上 Ceph 存储集群搭建
转载自:https://cloud.tencent.com/developer/article/1010539 1.Ceph 介绍 Ceph 是一个开源的分布式存储系统,包括对象存储.块设备.文件系统 ...
- Ceph 存储集群搭建
前言 Ceph 分布式存储系统,在企业中应用面较广 初步了解并学会使用很有必要 一.简介 Ceph 是一个开源的分布式存储系统,包括对象存储.块设备.文件系统.它具有高可靠性.安装方便.管理简便.能够 ...
- 主从集群搭建及容灾部署redis
redis主从集群搭建及容灾部署(哨兵sentinel) Redis也用了一段时间了,记录一下相关集群搭建及配置详解,方便后续使用查阅. 提纲 l Redis安装 l 整体架构 l Redis主 ...
- CDH集群搭建部署
1. 硬件准备 使用了五台机器,其中两台8c16g,三台4c8g.一台4c8g用于搭建cmServer和NFS服务端,另外4台作为cloudera-manager agent部署CDH集群. ...
- apigateway-kong(五)集群搭建部署
kong 集群将使得系统通过增加更多机器,从而实现水平扩展,承接更多的请求流量.它们将共享同样的配置且使用同一个数据库.kong 集群中的的所有节点都连接同一个数据库. 你需要在 kong 集群的上一 ...
- redis主从集群搭建及容灾部署(哨兵sentinel)
Redis也用了一段时间了,记录一下相关集群搭建及配置详解,方便后续使用查阅. 提纲 Redis安装 整体架构 Redis主从结构搭建 Redis容灾部署(哨兵sentinel) Redis常见问题 ...
- 分布式实时日志系统(一)环境搭建之 Jstorm 集群搭建过程/Jstorm集群一键安装部署
最近公司业务数据量越来越大,以前的基于消息队列的日志系统越来越难以满足目前的业务量,表现为消息积压,日志延迟,日志存储日期过短,所以,我们开始着手要重新设计这块,业界已经有了比较成熟的流程,即基于流式 ...
- .Net Core2.1 秒杀项目一步步实现CI/CD(Centos7.2)系列一:k8s高可用集群搭建总结以及部署API到k8s
前言:本系列博客又更新了,是博主研究很长时间,亲自动手实践过后的心得,k8s集群是购买了5台阿里云服务器部署的,这个集群差不多搞了一周时间,关于k8s的知识点,我也是刚入门,这方面的知识建议参考博客园 ...
- 阿里云ECS服务器部署HADOOP集群(一):Hadoop完全分布式集群环境搭建
准备: 两台配置CentOS 7.3的阿里云ECS服务器: hadoop-2.7.3.tar.gz安装包: jdk-8u77-linux-x64.tar.gz安装包: hostname及IP的配置: ...
随机推荐
- java中可变长参数
** * Created by Lenovo on 2017/12/10. * java中可变长参数 */ public class reflect04 { //m1有一个int类型的可比变长参数 / ...
- es6 let和const命令(1)
基本用法 ES新增了let命令,用于声明变量.其用法类似于var,但是所声明的变量只在let命令所在的代码块中有效. for(let i = 0;i<5;i++) {} console.log( ...
- badboy 录制脚本并并发脚本
很久没有研究过接口相关的工具了,一个偶然的机会听说了 badboy,可以录制jemter脚本, 查了资料 还可以并发,于是乎,实践才知道. http://www.badboy.com.au/ 官网,我 ...
- vue基础学习(一)
01-01 vue使用雏形 <div id="box"> {{msg}} </div> <script> window.onload= func ...
- 浏览器中的user-agent的几种模式
服务器一般会根据访问的浏览器进行识别,针对不同浏览器才用不同的网站样式及结构,也是通过这个信息判断用户使用的平台模式(手机,pc或平板) 识别为手机一般有这几个关键字: "Windows P ...
- python实现散列表的链表法
在散列中,链接法是一种最简单的碰撞解决技术,这种方法的原理就是把散列到同一槽中的所有元素 都放在一个链表中. 链接法有两个定理,定理一: 在简单一致散列的假设下,一次不成功查找的期望时间为O(1 + ...
- 物流包裹一站式查询(TrackingMore)
快递查询接口 目前提供快递查询的接口平台有: Trackingmore 快递100 快递网 不同接口的区别: (1)Trackingmore支持380家快递公司,其中有55家为国内的快递,其余325家 ...
- Zabbix 监控数据库MSSqlServer
zabbix 通过ODBC连接sql server,并通过odbc 获取数据从数据库: 配置如下: 在zabbix-server端 执行下面命令: # yum -y install freetds ...
- grpc
grpc入门(二) 一. 目标 本博文要介绍的是编写 grpc入门(一)中所提到的四种rpc的方式,然后通过命令行和eclipse两种方式生成对应的java代码,关于grpc是什么东西本文不再赘述. ...
- TurnipBit开发板“趣味赛”:平衡力大比拼
让孩子在快乐自由的游戏中培养编程思维 平衡力大挑战是我们经常经常玩的的一个小游戏,脑补画面的话比较常见的是单腿平衡力大比拼,摇晃幅度小者胜利.游戏好玩归好玩,但是想要公平判断胜负却不容易.下面就教大家 ...