实验环境:

主机名 ip地址 运行服务 安装组件
docker-master1 192.168.20.210 zookeeper
mesos-master
marathon

mesos
marathon
mesosphere-zookeeper

jdk1.8

docker-master2 192.168.20.211 zookeeper
mesos-master
marathon

mesos
marathon
mesosphere-zookeeper

jdk1.8

docker-master3 192.168.20.212 zookeeper
mesos-master
marathon

mesos
marathon
mesosphere-zookeeper

jdk1.8

docker-slave1 192.168.20.213 mesos-slave 

mesos

docker-engine

docker-slave2 192.168.20.214 mesos-slave

mesos

docker-engine

一、 准备工作:
1.1   关闭Selinux
# setenforce 0

# sed -i '/^SELINUX=/c SELINUX=disabled'/etc/selinux/config

1.2   关闭防火墙
# systemctl stop firewalld

# systemctl disable firewalld

1.3   配置主机名解析
[root@docker-master1 ~]# vi /etc/hosts

192.168.20.210 docker-master1
192.168.20.211 docker-master2
192.168.20.212 docker-master3
192.168.20.213 docker-slave1
192.168.20.214 docker-slave2

1.4更新mesos、marathon源

rpm -ivh http://repos.mesosphere.com/el/7/noarch/RPMS/mesosphere-el-repo-7-1.noarch.rpm

二、 master节点配置

2.1 master节点安装JDK1.8

tar -zxvf /root/jdk-8u171-linux-x64.tar.gz -C /usr/local

cat >> /etc/profile << EOF

export JAVA_HOME=/usr/local/jdk1..0_171
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$JAVA_HOME/bin:$PATH EOF

source /etc/profile

2.2 master 安装zookeeper(这里只以192.168.20.210为例)

2.2.1 解压zookeeper

tar zxf /root/zookeeper-3.4.8.tar.gz /usr/local

2.2.2创建zookeeper的日志目录和数据目录

mkdir /usr/local/zookeeper-3.4.8/{logs,data}

2.2.3修改zookeeper配置文件

touch /usr/local/zookeeper-3.4.8/conf/zoo.cfg

cat /usr/local/zookeeper-3.4./conf/zoo.cfg

tickTime=
dataDir=/usr/local/zookeeper-3.4.8/data
dataLogDir=/usr/local/zookeeper-3.4.8/logs
clientPort=
initLimit=
syncLimit=
server.=192.168.20.210::
server.=192.168.20.211::
server.=192.168.20.212::

1、2、3表示对应服务器上的myid,2888端口表示和leader通讯端口,3888端口表示选举端口

touch /usr/local/zookeeper-3.4.8/data/myid (每台主机上的myid是有zoo.cfg文件里的server后面的数字决定)

cat /usr/local/zookeeper-3.4./data/myid
cat >> /etc/profile << EOF
export PATH=$PATH:/usr/local/zookeeper-3.4./bin
EOF

source /etc/profile

2.2.4启动zookeeper

 zkServer.sh start

2.2.5 查看zookeeper状态

[root@docker-master1 zookeeper]# zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/bin/../conf/zoo.cfg
Mode: follower

2.3 master节点安装mesos(这里只以192.168.20.210为例)

2.3.1安装mesos程序

yum install mesos -y

2.3.2配置mesos

vi /etc/mesos/zk

zk://192.168.20.210:2181,192.168.20.211:2181,192.168.20.212:2181/mesos
[root@docker-master1 ~]# cd /etc/mesos-master
[root@docker-master1 mesos-master]# cat cluster
mesoscluster
[root@docker-master1 mesos-master]# cat hostname
192.168.20.210
[root@docker-master1 mesos-master]# cat ip
192.168.20.210
[root@docker-master1 mesos-master]# cat quorum
2
[root@docker-master1 mesos-master]# cat work_dir
/var/lib/mesos

quorum表示zookeeper集群中 要求最少参加选举节点的数目,一般设置为zookeeper集群节点个数的一半多些(比如3个节点的话,可配置为2)

2.3.2 启动mesos服务

systemctl start mesos-master

默认端口5050,访问地址:http://192.168.20.210:5050

2.4 master节点安装marathon(这里只以192.168.20.210为例)

2.4.1 安装marathon程序

yum install -y marathon

2.4.1创建marathon配置文件目录(1.5版本之前)

mkdir -p /etc/marathon/conf
[root@docker-master1 conf]# ls
hostname master zk
[root@docker-master1 conf]# cat hostname
192.168.20.210
[root@docker-master1 conf]# cat master
zk://192.168.20.210:2181,192.168.20.211:2181,192.168.20.212:2181/mesos
[root@docker-master1 conf]# cat zk
zk://192.168.20.210:2181,192.168.20.211:2181,192.168.20.212:2181/marathon

1.5版本之后在/etc/default/marathon文件最下面增加如下两行

MARATHON_MASTER=zk://docker-master1:2181,docker-master2:2181,docker-master3:2181/mesos
MARATHON_ZK=zk://docker-master1:2181,docker-master2:2181,docker-master3:2181/marathon

2.4.2 启动marathon

systemctl start marathon

如果启动不了,查看/var/log/message,如有以下错误,

No start hook file found ($HOOK_MARATHON_START). Proceeding with the start script.

则可以在命令行直接启动marathon

nohup marathon --master zk://192.168.20.210:2181,192.168.20.211:2181,192.168.20.212:2181/mesos --zk zk://192.168.20.210:2181,192.168.20.211:2181,192.168.20.212:2181/marathon &

默认8080端口,访问地址:http://192.168.20.210:8080/ui/#/apps

三、slave节点配置

3.1 slave安装docker(这里只以192.168.20.213为例)

yum install docker

3.1.1 启动docker并且设置为开机自启动

systemctl enable docker.service

systemctl start docker.service

3.2 slave安装mesos(这里只以192.168.20.213为例)

3.2.1 安装mesos程序

yum install mesos -y

3.2.2配置mesos-slave

[root@docker-slave1 mesos-slave]# cd /etc/mesos-slave/
[root@docker-slave1 mesos-slave]# ls
attributes containerizers executor_registration_timeout hostname ip work_dir
[root@docker-slave1 mesos-slave]# cat attributes
rack_id:rack-
[root@docker-slave1 mesos-slave]# cat containerizers
docker,mesos
[root@docker-slave1 mesos-slave]# cat executor_registration_timeout
15mins
[root@docker-slave1 mesos-slave]# cat hostname
192.168.20.213
[root@docker-slave1 mesos-slave]# cat ip
192.168.20.213
[root@docker-slave1 mesos-slave]# cat work_dir
/var/lib/mesos

3.2.3启动mesos-slave

systemctl start mesos-slave

mesos-slave默认端口为5051

完成以上操作即完成了Mesos的DCOS集群搭建,下一章我们介绍《marathon的高可用服务自动发现和负载均衡》。

docker+zookeeper+mesos+marathon集群的更多相关文章

  1. 基于zookeeper+mesos+marathon的docker集群管理平台

    参考文档: mesos:http://mesos.apache.org/ mesosphere社区版:https://github.com/mesosphere/open-docs mesospher ...

  2. Docker快速搭建Zookeeper和kafka集群

    使用Docker快速搭建Zookeeper和kafka集群 镜像选择 Zookeeper和Kafka集群分别运行在不同的容器中zookeeper官方镜像,版本3.4kafka采用wurstmeiste ...

  3. 使用Docker快速搭建Zookeeper和kafka集群

    使用Docker快速搭建Zookeeper和kafka集群 镜像选择 Zookeeper和Kafka集群分别运行在不同的容器中zookeeper官方镜像,版本3.4kafka采用wurstmeiste ...

  4. 基于zookeeper的Swarm集群搭建

    简介 Swarm:docker原生的集群管理工具,将一组docker主机作为一个虚拟的docker主机来管理. 对客户端而言,Swarm集群就像是另一台普通的docker主机. Swarm集群中的每台 ...

  5. Docker 部署 RocketMQ Dledger 集群模式( 版本v4.7.0)

    文章转载自:http://www.mydlq.club/article/97/ 系统环境: 系统版本:CentOS 7.8 RocketMQ 版本:4.7.0 Docker 版本:19.03.13 一 ...

  6. Docker 容器部署 Consul 集群

    Docker 容器部署 Consul 集群 一.docker安装与启动1.1安装docker[root@localhost /]# yum -y install docker-io 1.2更改配置文件 ...

  7. zookeeper部署及集群测试

    zookeeper部署及集群测试 环境 三台测试机 操作系统: centos7 ; hostname: c1 ; ip: 192.168.1.80 操作系统: centos7 ; hostname: ...

  8. ZooKeeper伪分布集群安装及使用 RMI+ZooKeeper实现远程调用框架

    使用 RMI + ZooKeeper 实现远程调用框架,包括ZooKeeper伪集群安装和代码实现两部分.  一.ZooKeeper伪集群安装: 1>获取ZooKeeper安装包 下载地址:ht ...

  9. (转)ZooKeeper伪分布式集群安装及使用

    转自:http://blog.fens.me/hadoop-zookeeper-intro/ 前言 ZooKeeper是Hadoop家族的一款高性能的分布式协作的产品.在单机中,系统协作大都是进程级的 ...

随机推荐

  1. i2c接口笔记

    一. i2c基础知识 1. NACK信号:当在第9个时钟脉冲的时候SDA线保持高电平,就被定义为NACK信号.Master要么产生STOP条件来放弃这次传输,或者重复START条件来发起一个新的开始. ...

  2. QLoo graphql engine 学习一 基本试用(docker&&docker-compose)

      说明:使用docker-compose 进行安装 代码框架 使用命令行工具创建 qlooctl install docker qloo-docker 运行qloo&&gloo 启动 ...

  3. 每天进步一点点——Linux中的线程局部存储(一)

    转载请说明出处:http://blog.csdn.net/cywosp/article/details/26469435    在Linux系统中使用C/C++进行多线程编程时,我们遇到最多的就是对同 ...

  4. [LeetCode系列] K节点倒序问题迭代解法

    给定链表和整数k, 使用in-space方法将链表按k个为一组进行倒序, 如果剩余个数不足k个则保留其原始顺序. 如给定1->2->3->4->5, k = 2, 需要返回 2 ...

  5. am335x内核初始化路径

    /arch/arm/mach-omap2/board_am335xevm.c中 1.myd_am335x_dev_cfg[]{ evm_nand_init() ... myir_gpio_init() ...

  6. win7 php5.6 redis扩展

    步骤: 1.下载redis扩展 redis扩展下载地址:http://windows.php.net/downloads/pecl/snaps/redis/ 查看phpinfo下载匹配的版本(一定要选 ...

  7. java单例模式等一些程序的写法....持续更新...

    一.单例模式的写法: public class MyFactory { /** * 饿汉式 */ private static MyFactory instance = new MyFactory() ...

  8. 利用spring的CommonsMultipartResolver上传文件

    1.CommonsMultipartResolver是spring里面提供的一个上传方式,效率我不知道,但是加入spring容器管理还是很不错的. 2.先看依赖包pom.xml <project ...

  9. Keras 入门

    “sample”“batch”“epoch” Sample:样本,比如:一张图像是一个样本,一段音频也是一个样本. Batch:批,含有N个样本的集合.每一个batch的样本都是独立的并行处理.在训练 ...

  10. 管理Linux服务器的用户和组

    管理Linux服务器的用户和组 Linux操作系统是一个多用户多任务的操作系统,允许多个用户同时登录到系统,使用系统资源. 为了使所有用户的工作顺利进行,保护每个用户的文件和进程,规范每个用户的权限, ...