文章转载自:http://www.mydlq.club/article/97/ 系统环境: 系统版本:CentOS 7.8 RocketMQ 版本:4.7.0 Docker 版本:19.03.13 一.RocketMQ 简介 RocketMQ 是一个由 Java 语言编写的分布式高性能消息中间件,由阿里创建,后将其开源给 Apache 基金会,现在已经成为 Apache 开源项目中的顶级开源项目,具有高性能.高可靠.高实时.分布式特点,尤其内部封装了很多跟业务相关的功能模块,能让我们快速用其解决…
MongoDB是一个介于关系数据库和非关系数据库之间的产品,是非关系数据库当中最像关系数据库的.支持类似于面向对象的查询语言,几乎可以实现类似关系数据库单表查询的绝大部分功能,而且还支持对数据建立索引.本文介绍了如何使用Docker搭建MongoDB集群. 本文我会向大家介绍如何使用Docker部署一个MongoDB集群,具体如下: 2.6.5版本的MongoDB 有3个节点的副本集(Replica set) 身份验证 持久化数据到本地文件系统 首先要准备三个运行的Docker服务器,这意味着你…
Zookeeper完全分布式集群服务 准备好3台服务器: [x]A-> centos-helios:192.168.19.1 [x]B-> centos-hestia:192.168.19.2 [x]C-> centos-hebe:192.168.19.3 ⚠️ [注意事项]: 1.一定要确定3台服务器之间可以相互通信 2.如果是采用的阿里云等服务器的话,一定要配置主机名与IP映射,否则会连接拒绝等问题 配置Zookeeper安装目录 在3台宿主机配置zookeeper安装目录:/doc…
1.环境准备 3台virtualbox虚拟机,用来安装ceph集群,已用docker-machine安装上了docker,每台虚拟机虚拟创建一个5G的硬盘,用于存储osd数据,例如:/dev/sdb 1台客户端manager,客户端可以扩展至多台形成swarm集群 hostname ip 部署 localhost 192.168.56.101 mon.osd host1 192.168.56.102 mon.osd.mgr host2 192.168.56.103 mon.osd manager…
主节点部署: docker run -d --name hfish-master -p : -p : -p : -p : -p : -p : -p : -p : -p : -p : -p : -p : -p : --restart=always imdevops/hfish:latest 客户端子节点部署 docker run -d --name hfish-client -p : -p : -p : -p : -p : -p : -p : -p : -p : -e CLUSTER_IP=mas…
前言:只有一台华为云服务器,所以打算创建三个容器来模拟三个服务器了. 一:拉取redis镜像 二:拉取redis.conf文件 放在自定义的目录下:wget -c http://download.redis.io/redis-stable/redis.conf 三:启动三个redis容器,redis_1,redis_2,redis_3 --name:自定义启动容器名称 -v 主机redis.conf 和redis容器做映射 -d 后台启动 -p 端口映射 6379是redis端口 26379是哨…
一.环境搭建 虚拟机环境:centos7 IP: 启动3个容器,一个是master,端口是3307,另外两个是slaver,端口是3308和3309 docker pull mysql:5.7 docker run -p : --name mysql-master -e MYSQL_ROOT_PASSWORD= -d mysql:5.7 docker run -p : --name mysql-slaver1 -e MYSQL_ROOT_PASSWORD= -d mysql:5.7 docker…
主机三台172.16.100.61172.16.100.62172.16.100.63Docker 版本 当前最新版 # 部署zk有2种方法 ## 注意 \后不要跟空格 一 . 端口映射 172.16.100.61 执行 docker run -tid --name=zk- \ --restart=always \ --privileged=true \ -p : \ -p : \ -p : \ -e ZOO_MY_ID= \ -e ZOO_SERVERS=server.="0.0.0.0:28…
測试一段时间.再来报告…
可以尝试以下步骤解决: 1 ,分别删除:主节点从节点的  /usr/local/hadoop-2.6.2/etc/tmp   下得所有文件; 2: 编辑cd usr/local/hadoop-2.6.2/etc/hadoop/    vi slaves 删除slaves里面的 localhost 3:然后 hadoop namenode -format 4: 重新启动  start-all.sh…