3台机器部署kafka集群的分布

10.1.161.111 -> kafka(1个节点)+ zookeeper(一个节点)+ kowl(一个节点)

10.1.161.112 -> kafka(1个节点)+ zookeeper(一个节点)

10.1.161.113 -> kafka(1个节点)+ zookeeper(一个节点)

curl -fsSL https://get.docker.com | bash

yum -y install docker-ce

sudo systemctl start docker

sudo systemctl enable docker

sudo curl -L https://get.daocloud.io/docker/compose/releases/download/1.29.2/docker-compose-uname -s-uname -m -o /usr/local/bin/docker-compose

sudo chmod +x /usr/local/bin/docker-compose

docker compose -v

部署方法:

bash(10.1.161.111)

https://hub.docker.com/r/bitnami/kafka
https://hub.docker.com/r/bitnami/zookeeper

version: '2'

services:

zoo:

image: 'bitnami/zookeeper:latest'

restart: unless-stopped

hostname: zoo

container_name: zoo

ports:

- 2181:2181

- 2888:2888

- 3888:3888

volumes:

- ./data/zookeeper:/bitnami/zookeeper

environment:

ZOO_SERVER_ID: 1

ZOO_SERVERS: 0.0.0.0:2888:3888,10.1.161.112:2888:3888,10.1.161.113:2888:3888

ALLOW_ANONYMOUS_LOGIN: yes

kafka:

image: 'bitnami/kafka:latest'

restart: unless-stopped

hostname: kafka

container_name: kafka

ports:

- 9092:9092

environment:

KAFKA_ADVERTISED_HOST_NAME: 10.1.161.111

KAFKA_HOST_NAME: 10.1.161.111

KAFKA_ADVERTISED_PORT: 9092

KAFKA_BROKER_ID: 1

KAFKA_CFG_ZOOKEEPER_CONNECT: 10.1.161.111:2181,10.1.161.112:2181,10.1.161.113:2181

KAFKA_CFG_ADVERTISED_LISTENERS: PLAINTEXT://10.1.161.111:9092

KAFKA_CFG_LISTENERS: PLAINTEXT://:9092

ALLOW_PLAINTEXT_LISTENER: yes

KAFKA_CFG_AUTO_CREATE_TOPICS_ENABLE: true

volumes:

- ./data/kafka:/bitnami/kafka

docker compose -f 10.1.161.111.yml up -d

bash(10.1.161.112)

https://hub.docker.com/r/bitnami/kafka
https://hub.docker.com/r/bitnami/zookeeper

version: '2'

services:

zoo:

image: 'bitnami/zookeeper:latest'

restart: unless-stopped

hostname: zoo

container_name: zoo

ports:

- 2181:2181

- 2888:2888

- 3888:3888

volumes:

- ./data/zookeeper:/bitnami/zookeeper

environment:

ZOO_SERVER_ID: 2

ZOO_SERVERS: 10.1.161.111:2888:3888,0.0.0.0:2888:3888,10.1.161.113:2888:3888

ALLOW_ANONYMOUS_LOGIN: yes

kafka:

image: 'bitnami/kafka:latest'

restart: unless-stopped

hostname: kafka

container_name: kafka

ports:

- 9092:9092

environment:

KAFKA_ADVERTISED_HOST_NAME: 10.1.161.112

KAFKA_HOST_NAME: 10.1.161.112

KAFKA_ADVERTISED_PORT: 9092

KAFKA_BROKER_ID: 2

KAFKA_CFG_ZOOKEEPER_CONNECT: 10.1.161.111:2181,10.1.161.112:2181,10.1.161.113:2181

KAFKA_CFG_ADVERTISED_LISTENERS: PLAINTEXT://10.1.161.112:9092

KAFKA_CFG_LISTENERS: PLAINTEXT://:9092

ALLOW_PLAINTEXT_LISTENER: yes

KAFKA_CFG_AUTO_CREATE_TOPICS_ENABLE: true

volumes:

- ./data/kafka:/bitnami/kafka

docker compose -f 10.1.161.112.yml up -d

bash(10.1.161.113)

https://hub.docker.com/r/bitnami/kafka
https://hub.docker.com/r/bitnami/zookeeper

version: '2'

services:

zoo:

image: 'bitnami/zookeeper:latest'

restart: unless-stopped

hostname: zoo

container_name: zoo

ports:

- 2181:2181

- 2888:2888

- 3888:3888

volumes:

- ./data/zookeeper:/bitnami/zookeeper

environment:

ZOO_SERVER_ID: 3

ZOO_SERVERS: 10.1.161.111:2888:3888,10.1.161.112:2888:3888,0.0.0.0:2888:3888

ALLOW_ANONYMOUS_LOGIN: yes

kafka:

image: 'bitnami/kafka:latest'

restart: unless-stopped

hostname: kafka

container_name: kafka

ports:

- 9092:9092

environment:

KAFKA_ADVERTISED_HOST_NAME: 10.1.161.113

KAFKA_HOST_NAME: 10.1.161.113

KAFKA_ADVERTISED_PORT: 9092

KAFKA_BROKER_ID: 3

KAFKA_CFG_ZOOKEEPER_CONNECT: 10.1.161.111:2181,10.1.161.112:2181,10.1.161.113:2181

KAFKA_CFG_ADVERTISED_LISTENERS: PLAINTEXT://10.1.161.113:9092

KAFKA_CFG_LISTENERS: PLAINTEXT://:9092

ALLOW_PLAINTEXT_LISTENER: yes

KAFKA_CFG_AUTO_CREATE_TOPICS_ENABLE: true

volumes:

- ./data/kafka:/bitnami/kafka

docker compose -f 10.1.161.113.yml up -d

bash(10.1.161.111)

mkdir -p /app/conf

chmod -R 777 /app/conf

放这里面

docker-compose.yml
参考 https://github.com/cloudhut/kowl

version: '2'

services:

kowl:

image: 'quay.io/cloudhut/kowl:master'

restart: unless-stopped

hostname: kowl

container_name: kowl

ports:

- 8085:8085

volumes:

- .:/app/conf

environment:

CONFIG_FILEPATH: /app/conf/kowl.yaml

kowl.yaml
参考 https://github.com/cloudhut/kowl/blob/master/docs/config/kowl.yaml

kafka:

brokers:

- 10.1.161.111:9092

- 10.1.161.112:19092

- 10.1.161.113:19092

server:

listenPort: 8085

basePath: "/kowl/"

readTimeout: 30s

writeTimeout: 30s

idleTimeout: 30s

compressionLevel: 4

cd /app/conf

docker compose up -d

镜像源可能拉不下来,看我前面的文章,里面有解决办法

没权限自动新建文件夹:

yml文件放主目录里

sudo mkdir -p /root/data/zookeeper

sudo chmod -R 777 /root/data/zookeeper

sudo mkdir -p /root/data/zookeeper

sudo chmod -R 777 /root/data/kafka

访问:

http://10.1.161.111:8085/kowl/

admin/admin

快速部署kafka集群和可视化界面的更多相关文章

  1. docker 快速部署ES集群 spark集群

    1) 拉下来 ES集群  spark集群 两套快速部署环境, 并只用docker跑起来,并保存到私库. 2)弄清楚怎么样打包 linux镜像(或者说制作). 3)试着改一下,让它们跑在集群里面. 4) ...

  2. docker swarm 集群及可视化界面的安装及配置

    docker swarm 集群及可视化界面的安装及配置 2016-12-14 16:08:46 标签:swarm consul registrator 原创作品,允许转载,转载时请务必以超链接形式标明 ...

  3. 使用RKE快速部署k8s集群

    一.环境准备 1.1环境信息 IP地址 角色 部署软件 10.10.100.5 K8s Master Etcd.Control 10.10.100.17 K8s Worker1 Worker 10.1 ...

  4. MariaDB Galera Cluster 部署(如何快速部署 MariaDB 集群)

    MariaDB Galera Cluster 部署(如何快速部署 MariaDB 集群)  OneAPM蓝海讯通7月3日 发布 推荐 4 推荐 收藏 14 收藏,1.1k 浏览 MariaDB 作为 ...

  5. MariaDB Galera Cluster 部署(如何快速部署MariaDB集群)

    MariaDB Galera Cluster 部署(如何快速部署MariaDB集群) [日期:--] 来源:Linux社区 作者:Linux [字体:大 中 小] MariaDB作为Mysql的一个分 ...

  6. Kubernetes探索学习001--Centos7.6使用kubeadm快速部署Kubernetes集群

    Centos7.6使用kubeadm快速部署kubernetes集群 为什么要使用kubeadm来部署kubernetes?因为kubeadm是kubernetes原生的部署工具,简单快捷方便,便于新 ...

  7. 菜鸟系列k8s——快速部署k8s集群

    快速部署k8s集群 1. 安装Rancher Rancher是业界唯一完全开源的企业级容器管理平台,为企业用户提供在生产环境中落地使用容器所需的一切功能与组件. Rancher2.0基于Kuberne ...

  8. 通过kubeadm快速部署K8S集群

    kubeadm是官方社区推出的一个用于快速部署kubernetes集群的工具. 这个工具能通过两条指令完成一个kubernetes集群的部署: # 创建一个 Master 节点 $ kubeadm i ...

  9. 教你在Kubernetes中快速部署ES集群

    摘要:ES集群是进行大数据存储和分析,快速检索的利器,本文简述了ES的集群架构,并提供了在Kubernetes中快速部署ES集群的样例:对ES集群的监控运维工具进行了介绍,并提供了部分问题定位经验,最 ...

  10. 快速安装 kafka 集群

    前言 最近因为工作原因,需要安装一个 kafka 集群,目前网络上有很多相关的教程,按着步骤来也能完成安装,只是这些教程都显得略微繁琐.因此,我写了这篇文章帮助大家快速完成 kafka 集群安装.   ...

随机推荐

  1. 国产计算框架mindspore在gpu环境下编译分支r1.3,使用suod权限成功编译并安装,成功运行——(修复部分bug,给出具体编译和安装过程)—— 第二部分:源码编译及编译后文件安装、运行

    前文: 国产计算框架mindspore在gpu环境下编译分支r1.3,使用suod权限成功编译并安装,成功运行--(修复部分bug,给出具体编译和安装过程)-- 第一部分:依赖环境的安装 我们已经进行 ...

  2. vscode中文环境配置

    1.背景 2.配置 2.1.安装中文包 如果没有按照中文插件需要先按照中文插件 如果你是首次安装,安装完成后会引导你重启,就可以了 2.2.设置成中文环境 打开VSCode软件,按快捷键[Ctrl+S ...

  3. H5页面\PC端实现QQ客服功能

    1.背景 很多应用都有在线客服,最简单是实现就是利用人们常用的QQ 2.实现 步骤一:授权QQ通讯组件(普通QQ都是可以的) 授权链接:https://shang.qq.com/v3/widget.h ...

  4. [SDOI2010] 城市规划 题解

    前言 题目链接:洛谷. 题意简述 树套环上求至少间隔两个位置的最大独立集. (树套环,即树上每个结点都是一个结点或环) 题目分析 将题目拆解成树上 DP 和环上 DP 即可.用 tarjan 缩点就行 ...

  5. 存储过程test按钮式灰的

    PL/SQL Developer中,存储过程无法调试的问题解决办法 在Oracle10中新建了一个用户,然后编写存储过程在PL/SQL Developer中调试,提示 ORA-0131: Insuff ...

  6. 浅谈Integer缓存机制原理

    面试题引入 这里引申出一个经典问题,看下面代码 Integer a = 100; Integer b = 100; System.out.println(a == b);//true Integer ...

  7. 我的 PowerShell 配置

    安装 Scoop: Scoop 是 Windows 上的包管理器 Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUse ...

  8. 【爬虫实战】——利用bs4和sqlalchemy操作mysql数据库,实现网站多行数据表格爬取数据

    前言 此篇接上一篇的内容,在其基础上爬取网站的多行表格数据,以及把数据写入到mysql数据库中 目录 一.定位表格查找元素 二.提取数据 三.写入mysql数据库 四.附录 一.定位表格查找元素 首先 ...

  9. 【YashanDB知识库】绑定参数,同一个sql多个执行计划的问题

    问题现象 同一个sql有两个执行计划,是否合理? 它的EXECUTIONS,ELAPSED_TIME等统计信息怎么看,是独立分开的还是统一计算的? 如下图: 问题影响版本 tpcc测试:23.2.1. ...

  10. 从数据洞察到智能决策:合合信息&infiniflow RAG技术的实战案例分享

    从数据洞察到智能决策:合合信息&infiniflow RAG技术的实战案例分享 标题取自 LLamaIndex,这个内容最早提出于今年 2 月份 LlamaIndex 官方博客.从 22 年 ...