0.8

[consumers, admin, config, controller, brokers, controller_epoch]

这些节点都归于谁管理

  • consumers: 0.8版本的客户端Consumer
  • admin:管理命令的脚本:kafka-preferred-replica-election.sh,
  • config:管理命令的脚本:kafka-topics.sh
  • controller:所有的broker监控这个。
  • brokers:kafka-topics.sh建立topic
  • controller_epoch:

1.consumers

1.1 ids 代表消费者线程

/consumers/[groupId]/ids/[consumerIdString]:每个consumer都有一个唯一的ID(consumerId可以通过配置文件指定,也可以由系统生成),此id用来标记消费者信息.

[zk: 10.39.1.66:22181(CONNECTED) 17] ls /consumers/guest_tblog_expo/ids
[guest_tblog_expo_yz4834.hadoop.data.sina.com.cn-1472452954131-13232511, guest_tblog_expo_yz4879.hadoop.data.sina.com.cn-1472452955003-3ff3d939]

这两个节点是临时的znode。

1.2 Consumer owner 表示partition和consumer线程的对应关系

/consumers/[groupId]/owners/[topic]/[partitionId] -> consumerIdString + threadId 索引编号

[zk: 10.39.1.66:22181(CONNECTED) 23] get /consumers/guest_tblog_expo/owners/openapi_exposure/0
guest_tblog_expo_yz4845.hadoop.data.sina.com.cn-1472452954464-2f40ad23-0
1.3 Consumer offset 表示partition被消费到的Offset位置

用来跟踪每个consumer目前所消费的partition中最大的offset

此znode为持久节点,可以看出offset跟group_id有关,以表明当消费者组(consumer group)中一个消费者失效,

重新触发balance,其他consumer可以继续消费.

/consumers/[groupId]/offsets/[topic]/[partitionId] -> long (offset)

[zk: 10.39.1.66:22181(CONNECTED) 26] get  /consumers/guest_tblog_expo/offsets/openapi_exposure/0
50793695368

2 admin 表示Controller管理的命令

常有的目录结构

  • /admin/reassign_partitions 重新分配partition
  • /admin/preferred_replica_election 重新preffed partition leader
  • /admin/delete_topics 删除topic

3 config 配置

主要包括三个的配置

  • topic : 存储topic集群属性之外的属性,比如修改了一个新的topic属性
  • clients:Client and Topic configuration overrides: The content of both znodes has the same structure(consumer或者Producer的配置地方)
  • changes: Config Change notification (Topic and Client config修改通知的地方)

clients 和 changes 在0.8 版本中也许没有。

[zk: localhost:2181(CONNECTED) 3] get /kafka10/config/topics/test2
{"version":1,"config":{"retention.ms":"3600000"}}

4 controller

/controller -> int (broker id of the controller) 存储center controller中央控制器所在kafka broker的信息

  • 0.8 版本的存储内容
[zk: 10.39.1.66:22181(CONNECTED) 34] get /controller
3
  • 0.10 版本的存储内容
[zk: localhost:2181(CONNECTED) 12] get /kafka10/controller
{"version":1,"brokerid":40107,"timestamp":"1479456552014"}

两个版本的存储内容有差别了。

6 controller_epoch 表示controller选举的次数

/controller_epoch -> int (epoch) 此值为一个数字,kafka集群中第一个broker第一次启动时为1,以后只要集群中center controller中央控制器所在broker变更或挂掉,就会重新选举新的center controller,每次center controller变更controller_epoch值就会 + 1;

[zk: localhost:2181(CONNECTED) 13] get /kafka10/controller_epoch
9
  • 什么时候会重新选举controller? 有broker与zk失去联系的时候。

5 brokers

存集群broker和topic的元信息:

  • /brokers/topics/[topic] :存储某个topic的partitions所有分配信息
  • ``
5.1 topic注册信息
  • /brokers/topics/[topic]: 存储某个topic的partitions所有分配信息
  • /brokers/topics/[topic]/partitions/[0...N] : partition的个数
  • /brokers/topics/[topic]/partitions/[partitionId]/state : partition的信息
[zk: localhost:2181(CONNECTED) 20] get /kafka10/brokers/topics/test2/partitions/0/state
{"controller_epoch":9,"leader":40106,"version":1,"leader_epoch":13,"isr":[40106,40107]} [zk: 10.39.1.66:22181(CONNECTED) 38] get /brokers/topics/openapi_advertise/partitions/0/state
{ "controller_epoch":33, "isr":[ 13, 7 ], "leader":13, "leader_epoch":29, "version":1 }
5.2 Broker注册信息

/brokers/ids/[0...N] : 每个broker的配置文件中都需要指定一个数字类型的id(全局不可重复),此节点为临时znode(EPHEMERAL)

0.10 和 0.8 信息不一样。

[zk: 10.39.1.66:22181(CONNECTED) 39] get /brokers/ids/48152
{ "host":"yz48152.hadoop.data.sina.com.cn", "jmx_port":9999, "port":19092, "version":1 } [zk: localhost:2181(CONNECTED) 22] get /kafka10/brokers/ids/4099
{"jmx_port":9999,"timestamp":"1479456552292","endpoints":["PLAINTEXT://10.39.40.99:9110"],"host":"10.39.40.99","version":3,"port":9110}
5.3 seqs 0.10 版本特有

未知????

0.10

[consumers, admin, config, controller, brokers, controller_epoch, isr_change_notification, kafka-acl, kafka-acl-changes]

10.1 isr_change_notification

0.10版本多了3组znode

  • /isr_change_notification/isr_change_x: Gets created when ISR is changed at any broker, controller watches for these notifications and sends MetadataUpdateRequest to all brokers. (ISR改变的时候,通知Controller,发送更新请求给all brokers.)

10.2 kafka-acl

关于授权,一共有三种:

  • Cluster:Create集群权限(官方写的是“Create on Cluster”)
  • Group: ConsumerGroup权限
  • Topic:读写权限
[zk: localhost:2181(CONNECTED) 10] get /kafka10/kafka-acl/Cluster/kafka-cluster
{"version":1,"acls":[{"principal":"User:mapiRsyslogForwardKafka","permissionType":"Allow","operation":"Create","host":"*"},,{"principal":"User:mapiRsyslogForwardKafka","permissionType":"Allow","operation":"Create","host":"10.77.*"}]} [zk: localhost:2181(CONNECTED) 12] get /kafka10/kafka-acl/Group/superConsumer
{"version":1,"acls":[{"principal":"User:fengchao1","permissionType":"Allow","operation":"Read","host":"*"}]} [zk: localhost:2181(CONNECTED) 13] get /kafka10/kafka-acl/Topic/client_ad_realread
{"version":1,"acls":[{"principal":"User:fengchao1","permissionType":"Allow","operation":"Read","host":"*"},{"principal":"User:fengchao1","permissionType":"Allow","operation":"Describe","host":"*"}]}

10.3 kafka-acl-changes

存储acl的变更信息。由授权的脚本触发。

[zk: localhost:2181(CONNECTED) 17] get /kafka10/kafka-acl-changes/acl_changes_0000000053
Topic:test2

关于这些节点里的内容格式,请查看kafka zk wiki

3 Kafka两个版本在Zookeeper的元数据存储的更多相关文章

  1. 编写Spark的WordCount程序并提交到集群运行[含scala和java两个版本]

    编写Spark的WordCount程序并提交到集群运行[含scala和java两个版本] 1. 开发环境 Jdk 1.7.0_72 Maven 3.2.1 Scala 2.10.6 Spark 1.6 ...

  2. Apache Kafka 0.11版本新功能简介

    Apache Kafka近日推出0.11版本.这是一个里程碑式的大版本,特别是Kafka从这个版本开始支持“exactly-once”语义(下称EOS, exactly-once semantics) ...

  3. git日志输出格式及两个版本之间差异列表

    查看commit id git log --pretty=format:"%h" git log --pretty=format:"%H" 获取两个版本间差异的 ...

  4. 【转】jquery两稳定版本比较~~

    博客分类: Web前端 jquery  jquery历经了多个版本的更新,版本上的比较貌似没什么必要性,一般来说新的版本会比旧的版本各方面都略有提升,但由于新版中增加了各种新的功能,难免会引起bug的 ...

  5. 【转载】pygame安装与两种版本的Python兼容问题

    在开始学习游戏编程之前,我们先来安装下pygame和python3.2.5 参考园友: http://www.cnblogs.com/hongten/p/hongten_pygame_install. ...

  6. mysql5.7.10和mysql5.5.39两个版本对于group by函数的处理差异

    原理还是没有搞清楚,在官网上看了一下,看的不是很清楚.一并都记录一下. 问题描述: 存在如下数据结构 sql: 求用户最近更新的那条记录 思路: 按照modify_time排序后按照user_id分组 ...

  7. win10系统安装两个版本的python,该怎么安装Django

    最近遇到一个问题,系统上安装了python2,7 和python3.5两个版本,然后使用命令:pip install Django 安装Django后却发现以下情况: Traceback (most ...

  8. Linux下切换使用两个版本的JDK

    Linux下切换使用两个版本的JDK 我这里原来已经配置好过一个1.7版本的jdk. 输出命令: java -version [root@hu-hadoop1 sbin]# java -version ...

  9. 使用Tortoise结合Git比较两个版本的差异

    1.右键项目,TortoiseGit -------> Diff with previous version 2.单击出分支选择弹窗,进行选择要比较的两个分支 3.比较同个分支的两个不同的版本 ...

随机推荐

  1. 网络助手之NABCD

    Sunny--Code团队:刘中睿,杜晓松,郑成       我们小组这次做的软件名字叫为校园网络助手.它主要有着两项功能:网络助手与校内网盘.          N--need:在学校里有时候我们就 ...

  2. 结对随即四则运算(带界面Java版)

    //随机四则运算类 public class 随机四则运算 { public static void main(String[] args) { new 界面();//进入随机四则运算的首界面 } } ...

  3. BETA-5

    前言 我们居然又冲刺了·五 团队代码管理github 站立会议 队名:PMS 530雨勤(组长) 过去两天完成了哪些任务 前一份代码方案全部垮掉,我,重构啦 接下来的计划 加速加速,一定要完成速度模块 ...

  4. InputStreamReader & OutputStreamWriter

    InputStreamReader 是字节流通向字符流的桥梁:它使用指定的 charset 读取字节并将其解码为字符. OutputStreamWriter 是字符流通向字节流的桥梁:可使用指定的 c ...

  5. check the manual that corresponds to your MySQL server version for the right syntax to use near 'type=InnoDB' at line 7

    第一种是:解决MySQL的版本问题(我用的是mysql 5.5版本),mysql 5.0版本以后的数据库方言是:org.hibernate.dialect.MySQ5LInnoDBDialect.第二 ...

  6. Dubbo学习(六) dubbo 架构图 以及调用过程

    一.Dubbo结构图   duubo结构图 我们解释以下这个架构图:Consumer服务消费者,Provider服务提供者.Container服务容器.消费当然是invoke提供者了,invoke这条 ...

  7. jQuery文件上传插件uploadify

    官方网站:http://www.uploadify.com/ 参考博客:jQuery Uploadify在ASP.NET MVC3中的使用 参考博客:使用uploadify上传图片时返回“Cannot ...

  8. 【uoj#143】[UER #5]万圣节的数列 构造

    题目描述 给出一个的数列,将其重新排列,使得其等差子序列的数目最小.输出一种可能的排列后的数列. 题解 构造 那天和 EdwardFrog 讨论 bzoj2124 的构造时突然有的灵感,最后发现就是这 ...

  9. Life Forms POJ - 3294(不小于k个字符串中的最长子串)

    题意: 求不小于字符串一半长度个字符串中的最长字串 解析: 论文题例11 将n个字符串连起来,中间用不相同的且没有出现在字符串中的字符隔开, 求后缀数组, 然后二分答案变为判定性问题, 然后判断每组的 ...

  10. [AT2567] [arc074_c] RGB Sequence

    题目链接 AtCoder:https://arc074.contest.atcoder.jp/tasks/arc074_c 洛谷:https://www.luogu.org/problemnew/sh ...