3 Kafka两个版本在Zookeeper的元数据存储
0.8
[consumers, admin, config, controller, brokers, controller_epoch]
这些节点都归于谁管理
- consumers: 0.8版本的客户端Consumer
- admin:管理命令的脚本:kafka-preferred-replica-election.sh,
- config:管理命令的脚本:kafka-topics.sh
- controller:所有的broker监控这个。
- brokers:kafka-topics.sh建立topic
- controller_epoch:
1.consumers
1.1 ids 代表消费者线程
/consumers/[groupId]/ids/[consumerIdString]:每个consumer都有一个唯一的ID(consumerId可以通过配置文件指定,也可以由系统生成),此id用来标记消费者信息.
[zk: 10.39.1.66:22181(CONNECTED) 17] ls /consumers/guest_tblog_expo/ids
[guest_tblog_expo_yz4834.hadoop.data.sina.com.cn-1472452954131-13232511, guest_tblog_expo_yz4879.hadoop.data.sina.com.cn-1472452955003-3ff3d939]
这两个节点是临时的znode。
1.2 Consumer owner 表示partition和consumer线程的对应关系
/consumers/[groupId]/owners/[topic]/[partitionId] -> consumerIdString + threadId 索引编号
[zk: 10.39.1.66:22181(CONNECTED) 23] get /consumers/guest_tblog_expo/owners/openapi_exposure/0
guest_tblog_expo_yz4845.hadoop.data.sina.com.cn-1472452954464-2f40ad23-0
1.3 Consumer offset 表示partition被消费到的Offset位置
用来跟踪每个consumer目前所消费的partition中最大的offset
此znode为持久节点,可以看出offset跟group_id有关,以表明当消费者组(consumer group)中一个消费者失效,
重新触发balance,其他consumer可以继续消费.
/consumers/[groupId]/offsets/[topic]/[partitionId] -> long (offset)
[zk: 10.39.1.66:22181(CONNECTED) 26] get /consumers/guest_tblog_expo/offsets/openapi_exposure/0
50793695368
2 admin 表示Controller管理的命令
常有的目录结构
/admin/reassign_partitions重新分配partition/admin/preferred_replica_election重新preffed partition leader/admin/delete_topics删除topic
3 config 配置
主要包括三个的配置
- topic : 存储topic集群属性之外的属性,比如修改了一个新的topic属性
- clients:Client and Topic configuration overrides: The content of both znodes has the same structure(consumer或者Producer的配置地方)
- changes: Config Change notification (Topic and Client config修改通知的地方)
clients 和 changes 在0.8 版本中也许没有。
[zk: localhost:2181(CONNECTED) 3] get /kafka10/config/topics/test2
{"version":1,"config":{"retention.ms":"3600000"}}
4 controller
/controller -> int (broker id of the controller) 存储center controller中央控制器所在kafka broker的信息
- 0.8 版本的存储内容
[zk: 10.39.1.66:22181(CONNECTED) 34] get /controller
3
- 0.10 版本的存储内容
[zk: localhost:2181(CONNECTED) 12] get /kafka10/controller
{"version":1,"brokerid":40107,"timestamp":"1479456552014"}
两个版本的存储内容有差别了。
6 controller_epoch 表示controller选举的次数
/controller_epoch -> int (epoch) 此值为一个数字,kafka集群中第一个broker第一次启动时为1,以后只要集群中center controller中央控制器所在broker变更或挂掉,就会重新选举新的center controller,每次center controller变更controller_epoch值就会 + 1;
[zk: localhost:2181(CONNECTED) 13] get /kafka10/controller_epoch
9
- 什么时候会重新选举controller? 有broker与zk失去联系的时候。
5 brokers
存集群broker和topic的元信息:
/brokers/topics/[topic]:存储某个topic的partitions所有分配信息- ``
5.1 topic注册信息
/brokers/topics/[topic]: 存储某个topic的partitions所有分配信息/brokers/topics/[topic]/partitions/[0...N]: partition的个数/brokers/topics/[topic]/partitions/[partitionId]/state: partition的信息
[zk: localhost:2181(CONNECTED) 20] get /kafka10/brokers/topics/test2/partitions/0/state
{"controller_epoch":9,"leader":40106,"version":1,"leader_epoch":13,"isr":[40106,40107]}
[zk: 10.39.1.66:22181(CONNECTED) 38] get /brokers/topics/openapi_advertise/partitions/0/state
{ "controller_epoch":33, "isr":[ 13, 7 ], "leader":13, "leader_epoch":29, "version":1 }
5.2 Broker注册信息
/brokers/ids/[0...N] : 每个broker的配置文件中都需要指定一个数字类型的id(全局不可重复),此节点为临时znode(EPHEMERAL)
0.10 和 0.8 信息不一样。
[zk: 10.39.1.66:22181(CONNECTED) 39] get /brokers/ids/48152
{ "host":"yz48152.hadoop.data.sina.com.cn", "jmx_port":9999, "port":19092, "version":1 }
[zk: localhost:2181(CONNECTED) 22] get /kafka10/brokers/ids/4099
{"jmx_port":9999,"timestamp":"1479456552292","endpoints":["PLAINTEXT://10.39.40.99:9110"],"host":"10.39.40.99","version":3,"port":9110}
5.3 seqs 0.10 版本特有
未知????
0.10
[consumers, admin, config, controller, brokers, controller_epoch, isr_change_notification, kafka-acl, kafka-acl-changes]
10.1 isr_change_notification
0.10版本多了3组znode
/isr_change_notification/isr_change_x: Gets created when ISR is changed at any broker, controller watches for these notifications and sends MetadataUpdateRequest to all brokers. (ISR改变的时候,通知Controller,发送更新请求给all brokers.)
10.2 kafka-acl
关于授权,一共有三种:
- Cluster:
Create集群权限(官方写的是“Create on Cluster”) - Group:
ConsumerGroup权限 - Topic:读写权限
[zk: localhost:2181(CONNECTED) 10] get /kafka10/kafka-acl/Cluster/kafka-cluster
{"version":1,"acls":[{"principal":"User:mapiRsyslogForwardKafka","permissionType":"Allow","operation":"Create","host":"*"},,{"principal":"User:mapiRsyslogForwardKafka","permissionType":"Allow","operation":"Create","host":"10.77.*"}]}
[zk: localhost:2181(CONNECTED) 12] get /kafka10/kafka-acl/Group/superConsumer
{"version":1,"acls":[{"principal":"User:fengchao1","permissionType":"Allow","operation":"Read","host":"*"}]}
[zk: localhost:2181(CONNECTED) 13] get /kafka10/kafka-acl/Topic/client_ad_realread
{"version":1,"acls":[{"principal":"User:fengchao1","permissionType":"Allow","operation":"Read","host":"*"},{"principal":"User:fengchao1","permissionType":"Allow","operation":"Describe","host":"*"}]}
10.3 kafka-acl-changes
存储acl的变更信息。由授权的脚本触发。
[zk: localhost:2181(CONNECTED) 17] get /kafka10/kafka-acl-changes/acl_changes_0000000053
Topic:test2
关于这些节点里的内容格式,请查看kafka zk wiki
3 Kafka两个版本在Zookeeper的元数据存储的更多相关文章
- 编写Spark的WordCount程序并提交到集群运行[含scala和java两个版本]
编写Spark的WordCount程序并提交到集群运行[含scala和java两个版本] 1. 开发环境 Jdk 1.7.0_72 Maven 3.2.1 Scala 2.10.6 Spark 1.6 ...
- Apache Kafka 0.11版本新功能简介
Apache Kafka近日推出0.11版本.这是一个里程碑式的大版本,特别是Kafka从这个版本开始支持“exactly-once”语义(下称EOS, exactly-once semantics) ...
- git日志输出格式及两个版本之间差异列表
查看commit id git log --pretty=format:"%h" git log --pretty=format:"%H" 获取两个版本间差异的 ...
- 【转】jquery两稳定版本比较~~
博客分类: Web前端 jquery jquery历经了多个版本的更新,版本上的比较貌似没什么必要性,一般来说新的版本会比旧的版本各方面都略有提升,但由于新版中增加了各种新的功能,难免会引起bug的 ...
- 【转载】pygame安装与两种版本的Python兼容问题
在开始学习游戏编程之前,我们先来安装下pygame和python3.2.5 参考园友: http://www.cnblogs.com/hongten/p/hongten_pygame_install. ...
- mysql5.7.10和mysql5.5.39两个版本对于group by函数的处理差异
原理还是没有搞清楚,在官网上看了一下,看的不是很清楚.一并都记录一下. 问题描述: 存在如下数据结构 sql: 求用户最近更新的那条记录 思路: 按照modify_time排序后按照user_id分组 ...
- win10系统安装两个版本的python,该怎么安装Django
最近遇到一个问题,系统上安装了python2,7 和python3.5两个版本,然后使用命令:pip install Django 安装Django后却发现以下情况: Traceback (most ...
- Linux下切换使用两个版本的JDK
Linux下切换使用两个版本的JDK 我这里原来已经配置好过一个1.7版本的jdk. 输出命令: java -version [root@hu-hadoop1 sbin]# java -version ...
- 使用Tortoise结合Git比较两个版本的差异
1.右键项目,TortoiseGit -------> Diff with previous version 2.单击出分支选择弹窗,进行选择要比较的两个分支 3.比较同个分支的两个不同的版本 ...
随机推荐
- C# CHM帮助文档
1.生成chm文件 首先,下载EasyCHM软件,此软件可将HTML文件.TXT文件.图片和文件夹按照文件层次生成.chm文件.EasyCHM打开界面如图所示: 点击“新建”,选择需要生成.chm文件 ...
- HDU 1003 最大连续子段和
题目链接: http://acm.hdu.edu.cn/showproblem.php?pid=1003 Max Sum Time Limit: 2000/1000 MS (Java/Others)M ...
- Effective Modern C++翻译(6)-条款5:auto比显示的类型声明要更好
在概念上说,auto关键字和它看起来一样简单,但是事实上,它要更微妙一些的.使用auto会让你在声明变量时省略掉类型,同时也会防止了手动类型声明带来的正确性和性能上的困扰:虽然按照语言预先定义 ...
- .NET WinForm下StatusStrip控件如何设置分隔线及部分子控件右对齐
ssInfo.LayoutStyle = ToolStripLayoutStyle.StackWithOverflow;//StatusStrip 控件 tsslUpdate.Alignment = ...
- mysql按日期分组统计数据
最近在做一个招聘网时,需要显示一个月内企业招聘信息的发布数量,按日期分组统计,刚开始是直接从源数据库表里面进行group by,但这样子就出现日期不连续的问题了,我想要的效果是,若当天没有数据,则显示 ...
- ie6 ie7 userdata 本地存储 引发的惨案.
我使用 documentElement 作为userdata 作为本地存储的载体. document.documentElement.addBehavior("#default#userda ...
- Hystrix 容错处理
目录 雪崩效应 容错的基本思想 什么是Hystrix 简单使用 消费端使用Hystrix 注解开启 改造消费方法 @HystrixCommand 详细配置 Hystrix线程隔离策略与传播上下文 Hy ...
- static关键字的总结
C++的static有两种用法:面向过程程序设计中的static和面向对象程序设计中的static.前者应用于普通变量和函数,不涉及类:后者主要说明static在类中的作用. 1.面向过程设计中的st ...
- Qt托盘程序
使用QSystemTrayIcon类可以实现托盘程序.在这里使用QMainWindow做实例: mainwindow.h头文件 #ifndef MAINWINDOW_H #define MAINWIN ...
- Be the Winner HDU - 2509(反博弈。。这样叫应该没错吧。。)
就是 好几堆苹果 每堆苹果排成一条线 可以任意从每堆拿苹果 如果一堆苹果里拿了之后 则有两种情况 1.从不是边缘拿 拿完这一堆变成两堆 2.从边缘拿 拿完还是一堆 题目还要求 谁 ...