部署节点执行: 安装基础包和docker yum install python-devel libffi-devel gcc openssl-devel git python-pip -y 升级一下 pip,不然后期安装会报警告 pip install -U pip yum install -y yum-utils device-mapper-persistent-data lvm2 安装ansible yum install ansible 每个节点执行,关闭kvm虚拟化: systemctl…
(1).实验环境 主机名 IP地址 角色 内存 网卡 CPU 磁盘 OpenStack-con 192.168.128.110 controller(控制) 8G 桥接网卡ens32和ens33 4核 200G OpenStack-com 192.168.128.111 compute(计算) 4G 桥接网卡ens32 4核 20G OpenStack-sto 192.168.128.112 storage(存储) 4G 桥接网卡ens32 4核 2个20G 注意:OpenStack-con主机…
一.架构信息 系统版本:CentOS 7.6 内核:3.10.0‐1062.4.1.el7.x86_64 Kubernetes: v1.16.2 Docker­ce: 19.03 推荐硬件配置:2核4G Keepalived保证apiserever服务器的IP高可用 Haproxy实现apiserver的负载均衡 二.部署前准备(初始化系统) 1) 关闭selinux和防火墙 sed -ri 's#(SELINUX=).*#\1disabled#' /etc/selinux/config set…
为展现 Kolla 的真正实力,我在阿里云使用 Ansible 自动创建 10 台虚机,部署一套多节点高可用 OpenStack 集群! 前言 上次 Kolla 已经表示了要打 10 个的愿望,这次我们就满足它. 通过本期内容,你将看到: 如何使用阿里云云命令行(Cloud Shell) 如何使用 Ansible 创建阿里云资源 Kolla 多节点部署配置说明 OpenStack 高可用架构 本期内容仍然是干货满满,写文章,调脚本,剪视频,不但花时间,还要在 阿里云 花钱租云服务器,真的费了不少…
http://blog.csdn.net/LL_JCB/article/details/51879378 为了保证云平台的稳定性,需要做很多部分的高可用.比如控制节点高可用.计算节点高可用.网络节点高可用.存储的高可用等: 控制节点的高可用与网络节点的高可用都有官方的文档,有详细的安装步骤,实现起来相对来说比较简单.存储的高可用在openstack这一块也不用考虑很多,比如ceph.glusterfs自带高可靠性. 当做了这些高可用后,我发现cinder-volume是一个瓶颈,如果它挂了的话,…
Kubernetes作为容器应用的管理平台,通过对pod的运行状态进行监控,并且根据主机或容器失效的状态将新的pod调度到其他node上,实现了应用层的高可用. 针对kubernetes集群,高可用性还包含以下两个层面的考虑: etcd存储的高可用 master节点的高可用 在开始之前,先贴一下架构图: etcd作为kubernetes的中心数据库,必须保证其不是单点.不过etcd集群的部署很简单,这里就不细说了,之前写过一键部署脚本,有兴趣的同学可以往前翻. 在k8s全面容器化加上各种验证机制…
之前写过一篇手动搭建etcd 3.1集群的文章<etcd 3.1 高可用集群搭建>,最近要初始化一套新的环境,考虑用ansible自动化部署整套环境, 先从部署etcd 3.2集群开始. 需要部署etcd的主机信息如下: node1 192.168.61.11 node2 192.168.61.12 node3 192.168.61.13 配置管理项目目录结构 ├── inventories │   ├── staging │   │   ├── group_vars │   │   │  …
Breeze部署kubernetes1.13.2高可用集群 2019年07月23日 10:51:41 willblog 阅读数 673 标签: kubernetes 更多 个人分类: kubernetes https://blog.csdn.net/networken/article/details/86550735 所知道的太少了.. 不过简单试了下 不是特别好用 国内公司做的系统.. 也可能跟我的虚拟机兼容性有关系.. breeze简介 项目地址:https://github.com/wis…
Rancher版本:Rancher v1.0.1 基本配置需求 多节点的HA配置请参照单节点需求 节点需要开放的端口 全局访问:TCP 端口22,80,443,18080(可选:用于在集群启动前 查看并管理栈 ) 节点间连接: UDP 端口:500,4500 TCP 端口:2181,2376,2888,3888,6379 MySQL数据库 至少 1GB 内存 每 Rancher 服务器节点 50 个连接(如:3 节点的高可用部署至少需要支持 150 个连接) 外部负载均衡器 建议配置 每个 Ra…
使用Docker Compose部署基于Sentinel的高可用Redis集群 https://yq.aliyun.com/articles/57953 Docker系列之(五):使用Docker Compose编排容器: https://www.cnblogs.com/ee900222/p/docker_5.html…
centos实现三个节点高可用 使用的资源为keepalived和nginx 高可用主机IP地址 192.168.136.131 192.168.136.133 192.168.136.134 nginx负载均衡配置 192.168.136.131 192.168.136.133 192.168.136.134 三台主机的80端口对应 192.168.136.131:8080 192.168.136.131:8083 192.168.136.134:8080 192.168.136.134:80…
一.   MySQL InnoDB Cluster 介绍MySQL的高可用架构无论是社区还是官方,一直在技术上进行探索,这么多年提出了多种解决方案,比如MMM, MHA, NDB Cluster, Galera Cluster, InnoDB Cluster, 腾讯的PhxSQL, MySQL Fabric., aliSQL.MySQL官方在2017年4月推出了一套完整的.高可用的Mysql解决方案 - MySQL InnoDB Cluster, 即一组MySQL服务器可以配置为一个MySQL集…
使用NFS服务器(比如图片业务),一台为主,一台为备.通常主到备的数据同步是通过rsync来做(可以结合inotify做实时同步).由于NFS服务是存在单点的,出于对业务在线率和数据安全的保障,可以采用"DRBD+NFS+Keepalived"架构来完成高可用方案部署.之前介绍了DRBD详细解说及配置过程记录,废话不多说了,基于之前的那篇文档的机器配置信息,以下记录部署过程: 思路: 1)在两台机器上安装keepalived,VIP为192.168.1.200 2)将DRBD的挂载目录…
转载于https://codegreen.cn/2018/08/30/kubernetes-cluster-1.9.7/ 前言 在部署之前,首先感谢 手动搭建高可用的kubernetes 集群 博文的作者[阳明],本文对kubernetes版本做了升级,其中一部分内容作了一下修改及完善. 一.服务器规划 角色 IP地址 Master01&&etcd01&&haproxy01 10.100.4.181 Master02&&etcd02&&hap…
采用Heartbeat+DRBD+mysql高可用方案,配置两个节点的高可用集群 l  配置各节点互相解析 gb07 gb06 l  配置各节点时间同步 gb07 [root@gb07 ~]# ntpdate 10.10.102.7   gb06 [root@gb06 ~]# ntpdate 10.10.102.7 l  各节点关闭SELinux 修改/etc/selinux/config文件中设置SELINUX=disabled ,然后重启服务器. l  Corosync 安装与配置(两节点上…
一.负载均衡的部署 server1    haproxy (调度器) server2    apache server3    nginx 1)在server1上首先安装salt-minion服务.并把自身添加在节点中(交换密钥).在上一节中有salt-minion的添加. 2)启动server1的salt-minion服务 # 此时server1中节点状态(server4的节点为了高可用准备的) 3)在server1 中添加haproxy的安装脚本和用户 --->  cd  /srv/salt…
kubeadm的主要特性已经GA了,网上看很多人说1.13有bug在1.13.1进行的更新,具体我也没怎么看,有兴趣的朋友可以查查,不过既然有人提到了我们就不要再去踩雷了,就用现在的1.13.1来部署集群.kubeadm对于初学k8s来说是很友好的,从部署到完成熟练的话一个单节点可能也就20分钟左右,不过在1.13之前用kubeadm最大的问题就是***,不过从1.13开始就可以imageRepository参数下载国内镜像再也不用担心镜像下载问题.稍微吐槽一下,建议大家再部署过程中还是以官网为…
实验目的 一般情况下,k8s集群中只有一台master和多台node,当master故障时,引发的事故后果可想而知. 故本文目的在于体现集群的高可用,即当集群中的一台master宕机后,k8s集群通过vip的转移,又会有新的节点被选举为集群的master,并保持集群的正常运作. 因本文体现的是master节点的高可用,为了实现效果,同时因资源条件限制,故总共采用4台服务器完成本次实验,3台master,1台node. 看到这也需有人有疑惑,总共有4台机器的资源,为啥不能2台master呢?这是因…
关于 kubernetes master 多节点以及高可用,网上的方法多采取 Active-Standby 方式,即: 通过 pacemaker 等软件使得某种 master 服务(apiserver,scheduler,controller-manager)同一时间只运行一个实例.具体来说,如果有多台master node,上面都安装了scheduler,controller-manager, apiserver: 对于schduler服务,同一时间只在一台master 节点上运行, 对于co…
1.HA架构注意事项 两个Namenode节点在某个时间只能有一个节点正常响应客户端请求,响应请求的节点状态必须是active standby状态要能够快速无缝切换成active状态,两个NN节点必须时刻保持元数据一致 将edits文件放到qjournal(一种分布式应用,依赖zookeeper实现,管理edits),而不存储在两个NN上,如果各个edits放在各个NN上,只能通过网络通信达到同步效果,可用性.安全性大大降低 每个namenode有一个监控进程zkfc,用来监控namenode是…
环境 最小化安装的centos6.5 设置如下: 一.修改基本配置 1.修改主机名为controller [root@localhost ~]# hostname controller [root@localhost ~]# [root@localhost ~]# bash [root@controller ~]# [root@controller ~]# vi /etc/sysconfig/network NETWORKING=yes HOSTNAME=controller NOZEROCON…
前言:上一篇介绍基于k3s环境,使用kubectl部署springboot简单项目应用,本篇介绍基于rancher2.x部署应用程序 1.上篇已部署一个springboot应用,我们可以通过rancher查看工作负载状态 说明:我们没有通过rancher添加主机管理部署K8s集群,所以我们这里直接用rancher在k3s上操作 登录rancher,查看集群工作负载 点击负载名称,查看负载信息 可以看到springboot部署在了ubuntunode2节点上,ip地址192.168.231.132…
在 /etc/kolla/globals.yml 文件中删除 neutron_external_interface  tunnel_interface  api_interface  storage_interface 在 multinode 文件中 增加如下配置 controller neutron_external_interface=ens34 tunnel_interface=ens34 api_interface=ens160 storage_interface=ens160node-…
使用 kolla-ansible 部署 opnenstack:stein,最后无法导入变量脚本,报错信息如下: [root@kolla ~]# . /etc/kolla/admin-openrc.sh[root@kolla ~]# /usr/share/kolla-ansible/init-runonceTraceback (most recent call last):  File "/usr/bin/openstack", line 5, in <module>   …
一.安装与配置HAProxy 1.调整内核参数,允许绑定VIP: vim /etc/sysctl.conf [内容] net.ipv4.ip_nonlocal_bind=1 sysctl -p 2.安装HAProxy: [源码安装] wget -c http://haproxy.1wt.eu/download/1.4/src/haproxy-1.4.23.tar.gz [备用链接:http://down1.chinaunix.net/distfiles/haproxy-1.4.21.tar.gz…
一.概况与原理  SHAPE  \* MERGEFORMAT 1)所需要的配置组件有:pacemaker+corosync+HAProxy 2)主要原理:HAProxy作为负载均衡器,将对openstack api服务的请求分发到两个镜像的控制节点上,由于openstack api服务是无状态的服务,所以不存在数据同步的问题.具体为在pacemaker中配置一个VIP,HAProxy负责监听这个VIP,将对这个VIP的请求分发到两台控制节点上,同时HAProxy本身作为pacemaker的资源实…
实验环境:centos7.4纯净版 postgres版本: 9.6.15 etcd版本:3.3.11 patroni版本:1.6.0 patroni介绍可参考:https://github.com/zalando/patroni ip规划 192.168.216.130 node1 master 192.168.216.132 node2 slave 192.168.216.134 node3 slave etcd集群部署请看上一篇文章:https://www.cnblogs.com/caidi…
# 前提时rabbit集群已经搭建完成 vim /etc/kolla/globals.yml enable_rabbitmq: "no" rpc_transport_url: "rabbit://openstack:openstack@10.0.1.21:5672,openstack:openstack@10.0.1.31:5672,openstack:openstack@10.0.1.24:5672" notify_transport_url: "rab…
使用haproxy+keepalived实现Mariadb负载均衡 controller2: 10.100.2.52 haproxy+keepalived controller3: 10.100.2.53 haporxy+keepalived vip:10.100.2.99 network1: 10.100.2.61 mariadb-galera-1 network2: 10.100.2.62 mariadb-galera-2 compute1: 10.100.2.71 mariadb-gale…