kafka1 三种模式安装
一 搭建单节点单broker的kafka集群
注意:请打开不同的终端分别执行以下步骤
1.复制安装包到/usr/local目录下,解压缩,重命名(或者软链接),配置环境变量
[root@hadoop ~]# cd /usr/local/
[root@hadoop local]# tar xzvf kafka_2.-2.0..tgz
[root@hadoop local]# mv kafka_2.-2.0. kafka
[root@hadoop local]# ln -s kafka_2.-2.0. kafka #软链接或者重命名执行一条即可
[root@hadoop local]# vi /etc/profile
添加变量 export KAFKA_HOME=/usr/local/kafka
在PATH后添加 :$KAFKA_HOME/bin
[root@hadoop local]# source /etc/profile [root@hadoop kafka]# echo $KAFKA_HOME #查看环境变量
/usr/local/kafka
2.启动服务器
启动zookeeper
[root@hadoop kafka]# zookeeper-server-start.sh config/zookeeper.properties
[root@hadoop kafka]# jps #打开另一个终端查看是否启动成功
Jps
QuorumPeerMain
启动kafka
[root@hadoop kafka]# kafka-server-start.sh config/server.properties
3.创建topic
#创建一个分区,一个副本的主题
#副本数无法修改,只能在创建主题时指定
[root@hadoop kafka]# kafka-topics.sh --create --zookeeper localhost: --replication-factor --partitions --topic test
Created topic "test". [root@hadoop kafka]# kafka-topics.sh --list --zookeeper localhost: #列出主题
test
可以通过zk的客户端观察zk的数据结构
[root@hadoop kafka]# zkCli.sh -server localhost: #进入zk客户端
Connecting to localhost:
-- ::, [myid:] - INFO [main:Environment@] - Client environment:zookeeper.version=3.4.-, built on // : GMT
-- ::, [myid:] - INFO [main:Environment@] - Client environment:host.name=hadoop
-- ::, [myid:] - INFO [main:Environment@] - Client environment:java.version=1.8.0_11
-- ::, [myid:] - INFO [main:Environment@] - Client environment:java.vendor=Oracle Corporation
-- ::, [myid:] - INFO [main:Environment@] - Client environment:java.home=/usr/java/jre
-- ::, [myid:] - INFO [main:Environment@] - Client environment:java.class.path=/usr/local/zookeeper/bin/../build/classes:/usr/local/zookeeper/bin/../build/lib/*.jar:/usr/local/zookeeper/bin/../lib/slf4j-log4j12-1.6.1.jar:/usr/local/zookeeper/bin/../lib/slf4j-api-1.6.1.jar:/usr/local/zookeeper/bin/../lib/netty-3.10.5.Final.jar:/usr/local/zookeeper/bin/../lib/log4j-1.2.16.jar:/usr/local/zookeeper/bin/../lib/jline-0.9.94.jar:/usr/local/zookeeper/bin/../zookeeper-3.4.9.jar:/usr/local/zookeeper/bin/../src/java/lib/*.jar:/usr/local/zookeeper/bin/../conf:.:/usr/java/lib/dt.jar:/usr/java/lib/tools.jar:/usr/java/jre/lib
2018-07-31 14:27:24,883 [myid:] - INFO [main:Environment@100] - Client environment:java.library.path=/usr/local/hadoop/lib/native:/usr/java/packages/lib/amd64:/usr/lib64:/lib64:/lib:/usr/lib
2018-07-31 14:27:24,883 [myid:] - INFO [main:Environment@100] - Client environment:java.io.tmpdir=/tmp
2018-07-31 14:27:24,883 [myid:] - INFO [main:Environment@100] - Client environment:java.compiler=<NA>
2018-07-31 14:27:24,883 [myid:] - INFO [main:Environment@100] - Client environment:os.name=Linux
2018-07-31 14:27:24,883 [myid:] - INFO [main:Environment@100] - Client environment:os.arch=amd64
2018-07-31 14:27:24,883 [myid:] - INFO [main:Environment@100] - Client environment:os.version=3.10.0-514.el7.x86_64
2018-07-31 14:27:24,883 [myid:] - INFO [main:Environment@100] - Client environment:user.name=root
2018-07-31 14:27:24,883 [myid:] - INFO [main:Environment@100] - Client environment:user.home=/root
2018-07-31 14:27:24,883 [myid:] - INFO [main:Environment@100] - Client environment:user.dir=/usr/local/kafka
2018-07-31 14:27:24,888 [myid:] - INFO [main:ZooKeeper@438] - Initiating client connection, connectString=localhost:2181 sessionTimeout=30000 watcher=org.apache.zookeeper.ZooKeeperMain$MyWatcher@67424e82
Welcome to ZooKeeper!
2018-07-31 14:27:25,037 [myid:] - INFO [main-SendThread(localhost:2181):ClientCnxn$SendThread@1032] - Opening socket connection to server localhost/127.0.0.1:2181. Will not attempt to authenticate using SASL (unknown error)
JLine support is enabled
2018-07-31 14:27:25,131 [myid:] - INFO [main-SendThread(localhost:2181):ClientCnxn$SendThread@876] - Socket connection established to localhost/127.0.0.1:2181, initiating session
2018-07-31 14:27:25,153 [myid:] - INFO [main-SendThread(localhost:2181):ClientCnxn$SendThread@1299] - Session establishment complete on server localhost/127.0.0.1:2181, sessionid = 0x10000ded7830002, negotiated timeout = 30000 WATCHER:: WatchedEvent state:SyncConnected type:None path:null
[zk: localhost:2181(CONNECTED) 0] ls /
[cluster, controller, controller_epoch, brokers, zookeeper, admin, isr_change_notification, consumers, log_dir_event_notification, latest_producer_id_block, config]
[zk: localhost:2181(CONNECTED) 1] ls /brokers
[ids, topics, seqid]
[zk: localhost:2181(CONNECTED) 2] ls /brokers/topics
[test]
[zk: localhost:2181(CONNECTED) 3] get /brokers/topics/test
{"version":1,"partitions":{"0":[0]}}
cZxid = 0x22
ctime = Tue Jul 31 14:22:42 CST 2018
mZxid = 0x22
mtime = Tue Jul 31 14:22:42 CST 2018
pZxid = 0x24
cversion = 1
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 36
numChildren = 1
[zk: localhost:2181(CONNECTED) 4] ls /brokers/topics/test
[partitions]
[zk: localhost:2181(CONNECTED) 5] ls /brokers/topics/test/partitions
[0]
[zk: localhost:2181(CONNECTED) 6] ls /brokers/topics/test/partitions/0
[state]
[zk: localhost:2181(CONNECTED) 7] ls /brokers/topics/test/partitions/0/state
[]
[zk: localhost:2181(CONNECTED) 8] get /brokers/topics/test/partitions/0/state
{"controller_epoch":1,"leader":0,"version":1,"leader_epoch":0,"isr":[0]}
cZxid = 0x26
ctime = Tue Jul 31 14:22:42 CST 2018
mZxid = 0x26
mtime = Tue Jul 31 14:22:42 CST 2018
pZxid = 0x26
cversion = 0
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 72
numChildren = 0
[zk: localhost:2181(CONNECTED) 9] quit #退出
Quitting...
2018-07-31 15:01:53,761 [myid:] - INFO [main:ZooKeeper@684] - Session: 0x10000ded7830002 closed
2018-07-31 15:01:53,789 [myid:] - INFO [main-EventThread:ClientCnxn$EventThread@519] - EventThread shut down for session: 0x10000ded7830002
[root@hadoop kafka]#
4.发送消息
[root@hadoop kafka]# kafka-console-producer.sh --broker-list localhost: --topic test
>hello world
>how are you
5.启动消费者
[root@hadoop kafka]# kafka-console-consumer.sh --bootstrap-server localhost: --topic test --from-beginning
hello world
how are you
最后查看一下进程
[root@hadoop kafka]# jps
Kafka
ConsoleConsumer
ConsoleProducer
QuorumPeerMain
Jps
二 搭建单节点多broker的kafka集群
首先把上述终端全部关闭,重新打开不同的终端分别执行以下步骤
1.创建并配置多个server配置文件
注意:以下3个broker中,必须有一个broker的端口号是9092。
这个是我踩过的坑,我刚开始建立了3个broker端口号分别为9093,9094,9095,然后消费消息时无论如何都不显示结果,在这卡了半天。
我猜是因为consumer.properties、producer.properties、connect-distributed.properties等文件中默认bootstrap.servers=localhost:9092,如果3个broker中没有一个端口号是9092,需要将这些配置文件中的bootstrap.servers参数值的端口号均改为其中一个(比如9093),否则消费者无法消费消息。但是我试过修改这3个配置文件,竟然没用!!!难道是我猜错了?郁闷。。。
后来我把其中一个端口号改为9092就好了。
[root@hadoop ~]# cd /usr/local/kafka/config/
[root@hadoop config]# cp server.properties server0.properties
[root@hadoop config]# cp server.properties server1.properties
[root@hadoop config]# cp server.properties server2.properties
[root@hadoop config]# vi server0.properties
broker.id=
listeners=PLAINTEXT://:9092
log.dirs=/tmp/kafka-logs0
[root@hadoop config]# vi server1.properties
broker.id=
listeners=PLAINTEXT://:9093
log.dirs=/tmp/kafka-logs1
[root@hadoop config]# vi server2.properties
broker.id=
listeners=PLAINTEXT://:9094
log.dirs=/tmp/kafka-logs2
2.启动服务器
启动zookeeper
[root@hadoop kafka]# zookeeper-server-start.sh config/zookeeper.properties
...
分别启动3个kafka服务器(可以在每条命令之后加 & 使命令在后台运行)
[root@hadoop kafka]# kafka-server-start.sh config/server0.properties &
[root@hadoop kafka]# kafka-server-start.sh config/server1.properties &
[root@hadoop kafka]# kafka-server-start.sh config/server2.properties &
查看
[root@hadoop config]# jps #显示启动了zookeeper和3个kafka服务器
QuorumPeerMain
Kafka
Jps
Kafka
Kafka
3.创建主题(3个副本)
注意:副本数必须小于等于broker数
[root@hadoop kafka]# kafka-topics.sh --create --zookeeper localhost: --replication-factor --partitions --topic test02
Created topic "test02".
查看主题内容
[root@hadoop kafka]# kafka-topics.sh --describe --zookeeper localhost: --topic test02
Topic:test02 PartitionCount: ReplicationFactor: Configs:
Topic: test02 Partition: Leader: Replicas: ,, Isr: ,,
还可以查看上一个主题内容
[root@hadoop kafka]# kafka-topics.sh --describe --zookeeper localhost: --topic test
Topic:test PartitionCount: ReplicationFactor: Configs:
Topic: test Partition: Leader: Replicas: Isr:
4.发布新消息给主题
[root@hadoop kafka]# netstat -ano | grep #查看3个kafka server的端口号(,,)是否存在
tcp6 ::: :::* LISTEN off (0.00//)
tcp6 ::: :::* LISTEN off (0.00//)
tcp6 ::: :::* LISTEN off (0.00//)
tcp6 192.168.42.133: 192.168.42.133: ESTABLISHED keepalive (7058.77//)
tcp6 192.168.42.133: 192.168.42.133: ESTABLISHED keepalive (7075.16//)
tcp6 192.168.42.133: 192.168.42.133: ESTABLISHED keepalive (7058.77//)
tcp6 192.168.42.133: 192.168.42.133: ESTABLISHED keepalive (7058.77//)
tcp6 192.168.42.133: 192.168.42.133: ESTABLISHED keepalive (7075.16//)
tcp6 192.168.42.133: 192.168.42.133: ESTABLISHED keepalive (7157.08//)
tcp6 192.168.42.133: 192.168.42.133: ESTABLISHED keepalive (7058.77//)
tcp6 192.168.42.133: 192.168.42.133: ESTABLISHED keepalive (7075.16//)
tcp6 192.168.42.133: 192.168.42.133: ESTABLISHED keepalive (7157.08//)
tcp6 192.168.42.133: 192.168.42.133: ESTABLISHED keepalive (7075.16//) [root@hadoop ~]# kafka-console-producer.sh --broker-list localhost:,localhost:,localhost: --topic test02
>hello kafka
5.消费消息
[root@hadoop kafka]# kafka-console-consumer.sh --bootstrap-server localhost:,localhost:,localhost: --topic test02 --from-beginning
hello kafka
注意:旧版本的kafka消费消息命令如下:
[root@hadoop kafka]# kafka-console-consumer.sh --zookeeper localhost: --topic test02 --from-beginning
zookeeper is not a recognized option #新版本kafka移除了这个参数
百度后发现,从 0.9.0.0版本后,kafka的consumer配置作了很大的改变,不仅增加了很多配置,而且把原来的zookeeper相关配置统统取消了。感兴趣的朋友可以查看官方文档中新旧consumer配置的对比。
6.容错测试
在容错性测试之前,可以先将生产者和消费者关掉。
a) 找到并杀死server2进程(broker 2是原来3个broker中的leader,现在我们杀死leader)
[root@hadoop kafka]# ps -ef|grep server2.properties #找到server2的进程号为13154
root : pts/ :: ...信息太多,忽略.../server2.properties
root : pts/ :: grep --color=auto server2.properties
[root@hadoop kafka]# kill #杀死进程
[root@hadoop kafka]# ps -ef|grep server2.properties #再次查看,进程号没有了
root : pts/ :: grep --color=auto server2.properties
[root@hadoop kafka]# jps #只剩下2个kafka了
Jps
QuorumPeerMain
Kafka
Kafka
b) 查看主题描述
#主题还在,只是leader由原来的broker 变为了broker
[root@hadoop kafka]# kafka-topics.sh --describe --zookeeper localhost: --topic test02
Topic:test02 PartitionCount: ReplicationFactor: Configs:
Topic: test02 Partition: Leader: Replicas: ,, Isr: ,
c) 启动消费者消费主题消息
[root@hadoop kafka]# kafka-console-consumer.sh --bootstrap-server localhost:,localhost:,localhost: --topic test02 --from-beginning
[-- ::,] WARN [Consumer clientId=consumer-, groupId=console-consumer-] Connection to node - could not be established. Broker may not be available. (org.apache.kafka.clients.NetworkClient)
hello kafka
可以发现,消费者依然可以消费原来的消息。
当然,如果生产者重新发布新消息,消费者同样也是可以消费的。
三 搭建多节点多broker的kafka集群
假设现在我们有3台服务器,分别为s101,s102,s103。
首先在3台服务器上先建立zookeeper完全分布式集群,步骤参考我以前写的博客。
接着安装kafka。
1.先在s101服务器上安装kafka(步骤参考 一 搭建单节点单broker的kafka集群 第1步)
2.将 kafka + 环境变量 拷贝到s102,s103服务器上。
3.分别修改3个服务器下的server.properties文件
[root@hadoop config]# vi server.properties #s101修改配置如下
broker.id= #注意3个broker id不冲突即可
log.dirs=/usr/local/kafka/kafka-logs #自己设置一个目录,但注意不要放在/tmp/临时目录下
zookeeper.connect=s101:,s102:,s103:
[root@hadoop config]# vi server.properties #s102修改配置如下
broker.id=
log.dirs=/usr/local/kafka/kafka-logs
zookeeper.connect=s101:,s102:,s103:
[root@hadoop config]# vi server.properties #s103修改配置如下
broker.id=
log.dirs=/usr/local/kafka/kafka-logs
zookeeper.connect=s101:,s102:,s103:
4.创建log目录 mkdir /usr/local/kafka/kafka-logs
5.分别启动3个zookeeper以及3个kafka server即可。
kafka1 三种模式安装的更多相关文章
- zookeeper三种模式安装详解(centos 7+zookeeper-3.4.9)
zookeeper有单机.伪集群.集群三种部署方式,可根据自己实际情况选择合适的部署方式.下边对这三种部署方式逐一进行讲解. 一 单机模式 1.下载 进入要下载的版本的目录,选择.tar.gz文件下载 ...
- zookeeper 安装的三种模式
Zookeeper安装 zookeeper的安装分为三种模式:单机模式.集群模式和伪集群模式. 单机模式 首先,从Apache官网下载一个Zookeeper稳定版本,本次教程采用的是zookeeper ...
- [转]VMware Workstation网络连接的三种模式
经常要使用VMWare Workstation来在本地测试不同的操作系统,以前也搞不清楚网络连接三种模式,最近看了几篇文章才算明白.现总结如下: 1. VMware Workstation的虚拟网络组 ...
- LVS三种模式配置及优点缺点比较
目录: LVS三种模式配置 LVS 三种工作模式的优缺点比较 LVS三种模式配置 LVS三种(LVS-DR,LVS-NAT,LVS-TUN)模式的简要配置 LVS是什么: http://www.lin ...
- LVS三种模式配置及优点缺点比较 转
LVS三种模式配置及优点缺点比较 作者:gzh0222,发布于2012-11-12,来源:CSDN 目录: LVS三种模式配置 LVS 三种工作模式的优缺点比较 LVS三种模式配置 LVS三种 ...
- 辛星跟您玩转vim第一节之vim的下载与三种模式
首先值得一提的是,我的vim教程pdf版本号已经写完了,大家能够去下载,这里是csdn的下载地址:点此下载 ,假设左边的下载地址挂掉了,也能够自行在浏览器以下输入例如以下地址进行下载:http://d ...
- VMware虚拟机上网络连接(network type)的三种模式--bridged、host-only、NAT
VMware虚拟机上网络连接(network type)的三种模式--bridged.host-only.NAT VMWare提供了三种工作模式,它们是bridged(桥接模式).NAT(网络地址转换 ...
- Linux初学之vmware Workstation 网络连接三种模式
简介: VM(VMware Workstation简称VM,后面都将用VM代替阐述)是一款功能强大的虚拟化软件.VM支持在 单一的桌面上同时运行多款不同的操作系统,能够模拟完整的网络环境,支持pxe功 ...
- centos LB负载均衡集群 三种模式区别 LVS/NAT 配置 LVS/DR 配置 LVS/DR + keepalived配置 nginx ip_hash 实现长连接 LVS是四层LB 注意down掉网卡的方法 nginx效率没有LVS高 ipvsadm命令集 测试LVS方法 第三十三节课
centos LB负载均衡集群 三种模式区别 LVS/NAT 配置 LVS/DR 配置 LVS/DR + keepalived配置 nginx ip_hash 实现长连接 LVS是四层LB ...
随机推荐
- Tensorflow读写TFRecords文件
在使用slim之类的tensorflow自带框架的时候一般默认的数据格式就是TFRecords,在训练的时候使用TFRecords中数据的流程如下:使用input pipeline读取tfrecord ...
- 【12月26日】A股滚动市盈率PE最低排名
深康佳A(SZ000016) - 滚动市盈率PE:1.47 - 滚动市净率PB:0.98 - 滚动年化股息收益率:4.97% - 消费电子产品 - 深康佳A(SZ000016)的历史市盈率走势图 华菱 ...
- Fiddler 简介
Fiddler 简介: (1) Fiddler 是一个抓包工具,主要用来对 HTTP 请求进行分析,浏览器按 F12 也可以进行抓包,但是比较轻量,不支持一些复杂的抓包:(2) WireShark 工 ...
- 配置openssh实现sftp远程文件上传
客服端:winscp等ftp/sftp客户端 服务器:阿里云默认使用的openssh 需求:可以sftp远程传输文件到服务器固定文件夹下,不可远程ssh登录 步骤: 1. 建立系统用户ftpuser及 ...
- Xlight FTP搭建FTP服务器教程
Xlight FTP搭建FTP服务器教程 1. 服务器公共设置 设置FTP 端口, ip 等 FTP 服务器公共的设定 2. 设定 FTP 用户, FTP 目录 等信息 备注: 这个用户是非Wi ...
- 理解xwindows
大名鼎鼎的 X Window 大家肯定不陌生.都知道它是 Unix/Linux 下面的窗口系统,也都知道它基于 Server/Clinet 架构.在网上随便搜一搜,也可以找到不少 X Window 的 ...
- C# 数组转json
////////试题信息///////////////// // 已知 // h.d两个数组分别表示表头和内容 // 要求 // 编写函数一:rs2Array // 返回一个数组,每一项为一个对象. ...
- onems设备管理系统(TR-069和OMA)
onems设备管理系统(TR-069和OMA) 沃克斯科技OneMS设备管理套件是一个全面的为服务提供商和企业提供自动配置和远程管理功能的设备管理解决方案.它利用现有的网络基础设施来自动化订购,预配置 ...
- TCP通信粘包问题分析和解决
转载至https://www.cnblogs.com/kex1n/p/6502002.html 在socket网络程序中,TCP和UDP分别是面向连接和非面向连接的.因此TCP的socket编程,收发 ...
- day_6.17 gevent版服务器
用协程做并发服务器 gevent版本: monkey.patch_all() 修改了自己的代码 只能用mokey里面的代码 #!--*coding=utf-8*-- #2018-6-17 12:0 ...