官方

https://zookeeper.apache.org/doc/r3.5.6/zookeeperStarted.html#sc_Prerequisites

https://www.cnblogs.com/luotianshuai/p/5206662.html
https://www.cnblogs.com/kevingrace/p/9021508.html

https://www.cnblogs.com/zgqbky/p/11835780.html 国强

1.下载需要的安装包

wget https://mirrors.tuna.tsinghua.edu.cn/apache/zookeeper/zookeeper-3.4.14/zookeeper-3.4.14.tar.gz

wget http://mirrors.shu.edu.cn/apache/kafka/1.1.0/kafka_2.11-1.1.0.tgz

http://kafka.apache.org/downloads

以前的版本在下面下载

2.准备 zookeeper目录 三个节点192.168.1.151 192.168.1.152 192.168.1.153   备注:请注意ip地址与版本号

mkdir /opt/zookeeper
mkdir /opt/zookeeper/zkdata
mkdir /opt/zookeeper/zkdatalog
cp /root/zookeeper-3.4.10.tar.gz /opt/
cd /opt/
tar -zxvf zookeeper-3.4.10.tar.gz -C /opt/zookeeper
cp /opt/zookeeper/zookeeper-3.4.10/conf/zoo_sample.cfg /opt/zookeeper/zookeeper-3.4.10/conf/zoo.cfg #备份配置文件
vi /opt/zookeeper/zookeeper-3.4.10/conf/zoo.cfg   # 这样查看的配置 cat /opt/zookeeper/zookeeper-3.4.10/conf/zoo.cfg | egrep -v "^$|^#"
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/opt/zookeeper/zkdata 修改日志路径
dataLogDir=/opt/zookeeper/zkdatalog 添加
clientPort=2181
server.1=192.168.120.81:2888:3888 添加
server.2=192.168.120.82:2888:3888 添加
server.3=192.168.120.83:2888:3888 添加
#server.1 这个1是服务器的标识也可以是其他的数字, 表示这个是第几号服务器,用来标识服务器,这个标识要写到快照目录下面myid文件里
#192.168.120.83为集群里的IP地址,第一个端口是master和slave之间的通信端口,默认是2888,第二个端口是leader选举的端口,集群刚启动的时候选举或者leader挂掉之后进行新的选举的
端口默认是3888
 

注意
如果指定了日志位置需要修改下面参数
cp /opt/zookeeper/zookeeper-3.4.10/bin/zkServer.sh /opt/zookeeper/zookeeper-3.4.10/bin/zkServer.sh.bak

vi /opt/zookeeper/zookeeper-3.4.10/bin/zkServer.sh


ZOO_LOG_DIR="$($GREP "^[[:space:]]*dataLogDir" "$ZOOCFG" | sed -e 's/.*=//')"  #125添加这一行
 
3.拷贝配置好的文件到其他主机

scp -r /opt/zookeeper 192.168.120.82:/opt/
scp -r /opt/zookeeper 192.168.120.83:/opt/

#server1
echo "1" > /opt/zookeeper/zkdata/myid
#server2
echo "2" > /opt/zookeeper/zkdata/myid
#server3
echo "3" > /opt/zookeeper/zkdata/myid


/opt/zookeeper/zookeeper-3.4.10/bin/zkServer.sh start #启动服务
/opt/zookeeper/zookeeper-3.4.10/bin/zkServer.sh status #查看状态

kafa集群目录准备

mkdir /opt/kafka
mkdir /opt/kafka/kafkalogs
cd /opt/kafka
wget http://mirrors.shu.edu.cn/apache/kafka/1.1.0/kafka_2.11-1.1.0.tgz
tar -zxvf kafka_2.11-1.1.0.tgz

vi /opt/kafka/kafka_2.11-1.1.0/config/server.properties


listeners=PLAINTEXT://192.168.120.81:9092
log.dirs=/opt/kafka/kafkalogs/
zookeeper.connect=192.168.120.81:2181,192.168.120.82:2181,192.168.120.83:


[root@81server ~]# cat /opt/kafka/kafka_2.11-1.1.0/config/server.properties | egrep -v "^$|^#"  #查看所有参数 备注:这个只是参考,修改的其实是上面的配置文件

 
broker.id=0
listeners=PLAINTEXT://192.168.120.81:9092
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/opt/kafka/kafkalogs/
num.partitions=1
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.flush.interval.messages=10000
log.flush.interval.ms=1000
log.retention.hours=168
log.retention.bytes=1073741824
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
zookeeper.connect=192.168.120.81:2181,192.168.120.82:2181,192.168.120.83:2181
zookeeper.connection.timeout.ms=6000
group.initial.rebalance.delay.ms=0

拷贝配置好的文件和程序


scp -r /opt/kafka 192.168.120.82:/opt/
scp -r /opt/kafka 192.168.120.83:/opt/

其他节点只修改两次
vi /opt/kafka/kafka_2.11-1.1.0/config/server.properties


broker.id=1 #此处不能重复
......
listeners=PLAINTEXT://192.168.120.82:9092

运行kafka服务在三个节点


nohup /opt/kafka/kafka_2.11-1.1.0/bin/kafka-server-start.sh /opt/kafka/kafka_2.11-1.1.0/config/server.properties >/dev/null 2>&1 &
 

随便在其中一台节点主机执行

/opt/kafka/kafka_2.11-1.1.0/bin/kafka-topics.sh --create --zookeeper 192.168.120.81:2181,192.168.120.82:2181,192.168.120.83:2181 --replication-factor 1 --partitions 1 --topic test

/opt/kafka/kafka_2.11-1.1.0/bin/kafka-topics.sh --list --zookeeper 192.168.120.81:2181,192.168.120.82:2181,192.168.120.83:2181 #查看刚才的信息

查看topic状态

/opt/kafka/kafka_2.11-1.1.0/bin/kafka-topics.sh --describe --zookeeper 192.168.120.81:2181,192.168.120.82:2181,192.168.120.83:2181 

kafka内容查询


/opt/kafka/kafka_2.11-1.1.0/bin/kafka-consumer-groups.sh --bootstrap-server \
192.168.1.151:9092,192.168.1.152:9092,192.168.1.153:9092 --list groupid /opt/kafka/kafka_2.11-1.1.0/bin/kafka-consumer-groups.sh --bootstrap-server \
192.168.1.151:9092,192.168.1.152:9092,192.168.1.153:9092 --group orderdy030_refund --describe



vi zookeeper.sh


/opt/zookeeper/zookeeper-3.4.10/bin/zkServer.sh start

vi kafka.sh


nohup /opt/kafka/kafka_2.11-1.1.0/bin/kafka-server-start.sh /opt/kafka/kafka_2.11-1.1.0/config/server.properties >/dev/null 2>&1 &



/opt/zookeeper/zookeeper-3.4.10/bin/zkCli.sh -server 127.0.0.1:2181

ls /
get /brokers/ids/0 get /brokers/topics/test/partitions/0
 
 
 
 

 

zookeeper加Kafka集群配置的更多相关文章

  1. HyperLedger Fabric基于zookeeper和kafka集群配置解析

    简述 在搭建HyperLedger Fabric环境的过程中,我们会用到一个configtx.yaml文件(可参考Hyperledger Fabric 1.0 从零开始(八)--Fabric多节点集群 ...

  2. Kafka集群配置---Windows版

    Kafka是一种高吞吐量的分布式发布订阅的消息队列系统,Kafka对消息进行保存时是通过tipic进行分组的.今天我们仅实现Kafka集群的配置.理论的抽空在聊 前言 最近研究kafka,发现网上很多 ...

  3. zookeeper及kafka集群搭建

    zookeeper及kafka集群搭建 1.有关zookeeper的介绍可参考:http://www.cnblogs.com/wuxl360/p/5817471.html 2.zookeeper安装 ...

  4. 利用新版本自带的Zookeeper搭建kafka集群

    安装简要说明新版本的kafka自带有zookeeper,其实自带的zookeeper完全够用,本篇文章以记录使用自带zookeeper搭建kafka集群.1.关于kafka下载kafka下载页面:ht ...

  5. Zookeeper、Kafka集群与Filebeat+Kafka+ELK架构

    Zookeeper.Kafka集群与Filebeat+Kafka+ELK架构 目录 Zookeeper.Kafka集群与Filebeat+Kafka+ELK架构 一.Zookeeper 1. Zook ...

  6. 搭建zookeeper和Kafka集群

    搭建zookeeper和Kafka集群: 本实验拥有3个节点,均为CentOS 7系统,分别对应IP为10.211.55.11.10.211.55.13.10.211.55.14,且均有相同用户名 ( ...

  7. Docker快速搭建Zookeeper和kafka集群

    使用Docker快速搭建Zookeeper和kafka集群 镜像选择 Zookeeper和Kafka集群分别运行在不同的容器中zookeeper官方镜像,版本3.4kafka采用wurstmeiste ...

  8. 使用Docker快速搭建Zookeeper和kafka集群

    使用Docker快速搭建Zookeeper和kafka集群 镜像选择 Zookeeper和Kafka集群分别运行在不同的容器中zookeeper官方镜像,版本3.4kafka采用wurstmeiste ...

  9. zookeeper和Kafka集群安装配置

    3个虚拟机,首先关闭防火墙,在进行下面操作 一.java环境 yum list java* yum -y install java-1.8.0-openjdk* 查看Java版本 Java -vers ...

随机推荐

  1. CRS-1硬件维护

    一.CRS-1硬件介绍CRS-1 路由器是Cisco 推出的新的大容量骨干路由器,是一个支持多机箱扩展的路由系统.其设计容量可以扩展至72 个线卡机箱.8 个矩阵机箱,总交换容量达到92Tbps,具有 ...

  2. 【PAT甲级】1042 Shuffling Machine (20 分)

    题意: 输入洗牌次数K(<=20),输入54张牌每次洗入的位置(不是交换的位置),输出洗好的牌. AAAAAccepted code: #define HAVE_STRUCT_TIMESPEC ...

  3. HDFS核心类FileSystem的使用

    一.导入jar包 本次使用的是eclipse操作的,所以需要手动导入jar包 在Hadoop.7.7/share/hadoop里有几个文件夹 common为核心类,此次需要引入common和hdfs两 ...

  4. 【Android多线程】Thread和线程池

    https://www.bilibili.com/video/av65170691?p=3 (本文为此视频听课笔记) 一.为什么要使用多线程 二.Thread 2.1 通过继承Thread类 2.2 ...

  5. vue 之 axios Vue路由与element-UI

    一. 在组件中使用axios获取数据 1. 安装和配置axios 默认情况下,我们的项目中并没有对axios包的支持,所以我们需要下载安装. 在项目根目录中使用 npm安装包 npm install ...

  6. 当在命令行中执行virtualenv venv时报此错误:'utf-8' codec can't decode byte 0xd5 in position 38: invalid continuation by

    1.windows中安装虚拟环境virtualenv时, 当在命令行中执行virtualenv venv时报此错误:'utf-8' codec can't decode byte 0xd5 in po ...

  7. json字符串转换成json增删查改节点

    一.功能实现 1.节点树查询: 按ID查询树 2.节点新增: http://host/tree_data/node/${treeId} in: {node: {key: ..., ...}, pare ...

  8. let const var 比较说明

    现在先来做两道练习题 for(var i=0;i<10;i++){ var a='a' let b = 'b' } console.log(a) console.log(b) for(var i ...

  9. Node Sass does not yet support your current environment: Linux 64-bit with Unsupported runtime

    环境: ubuntu18 webstorm vue项目 报错原因: 缺少相关依赖 解决方法: npm rebuild node-sass 还未解决: npm uninstall --save node ...

  10. Lucene学习笔记一

    Lucene课件 1.全文检索 1.1常见的全文检索 在window系统中,可以指定磁盘中的某一个位置来搜索你想要得到的东西.这个功能是windows比较常用的功能.在这个界面中能搜索的内容有*.*, ...