kafka支持配额管理,从而可以对Producer和Consumer的produce&fetch操作进行流量限制,防止个别业务压爆服务器。本文主要介绍如何使用kafka的配额管理功能。

1 Kafka Quatas简介

Kafka配额管理所能配置的对象(或者说粒度)有3种:

user + clientid
user
clientid
这3种都是对接入的client的身份进行的认定方式。其中,

  • clientid是每个接入kafka集群的client的一个身份标志,在ProduceRequest和FetchRequest中都需要带上;
  • user只有在开启了身份认证的kafka集群才有。

如果kafka集群没有开启身份认证,则只能使用clientid方式来进行限流。

可配置的选项包括:

  • producer_byte_rate。发布者单位时间(每秒)内可以发布到单台broker的字节数。
  • consumer_byte_rate。消费者单位时间(每秒)内可以从单台broker拉取的字节数。

2 如何配置

可以通过两种方式来作配额管理:

  1. 在配置文件中指定所有client-id的统一配额。
  2. 动态修改zookeeper中相关znode的值,可以配置指定client-id的配额。

使用第一种方式,必须重启broker,而且还不能针对特定client-id设置。所以,推荐大家使用第二种方式

2.1 使用官方脚本修改配额

kafka官方的二进制包中,包含了一个脚本bin/kafka-configs.sh,支持针对user,client-id,(user,client-id)等三种纬度设置配额(也是通过修改zk来实现的)。

#1. 配置user+clientid。例如,user为”user1”,clientid为”clientA”。
bin/kafka-configs.sh --zookeeper localhost: --alter --add-config 'producer_byte_rate=1024,consumer_byte_rate=2048' \
--entity-type users --entity-name user1 --entity-type clients --entity-name clientA #2. 配置user。例如,user为”user1”
bin/kafka-configs.sh --zookeeper localhost: --alter --add-config 'producer_byte_rate=1024,consumer_byte_rate=2048' \
--entity-type users --entity-name user1 #3. 配置client-id。例如,client-id为”clientA”
bin/kafka-configs.sh --zookeeper localhost: --alter --add-config 'producer_byte_rate=1024,consumer_byte_rate=2048' \
--entity-type clients --entity-name clientA

2.2 直接写zk来修改配额

假定我们在启动kafka时指定的zookeeper目录是kafka_rootdir

#. 配置user+clientid。例如,针对”user1”,”clientA”的配额是10MB/sec,其它clientid的默认配额是5MB/sec。
znode: ${kafka_rootdir}/config/users/user1/clients/clientid;
value: {"version":,"config":{"producer_byte_rate":"","consumer_byte_rate":""}} znode: {kafka_rootdir}/config/users/user1/clients/<default>;
value: {"version":,"config":{"producer_byte_rate":"","consumer_byte_rate":""}} #. 配置user。例如,”user2”的配额是1MB/sec,其它user的默认配额是5MB/sec。
znode: ${kafka_rootdir}/config/users/user1;
value: {"version":,"config":{"producer_byte_rate":"","consumer_byte_rate":""}} znode: ${kafka_rootdir/config/users/<default>;
value: {"version":,"config":{"producer_byte_rate":"","consumer_byte_rate":""}} #. 配置client-id。例如,”clientB”的配额是2MB/sec,其它clientid的默认配额是1MB/sec。
znode:${kafka_rootdir}/config/clients/clientB';
value:{“version”:,”config”:{“producer_byte_rate”:””,”consumer_byte_rate”:””}}</li> znode:${kafka_rootdir}/config/clients/;
value:{“version”:,”config”:{“producer_byte_rate”:””,”consumer_byte_rate”:””}}`

3 优先级
首先,我们需要明白,kafka在管理配额的时候,是以“组”的概念来管理的。而管理的对象,则是producer或consumer到broker的一条条的TCP连接。

那么在进行额度管理的时候,kafka首先需要确认,这条连接属于哪个“组”,进而确定当前连接是否超过了所属“组”的总额度。

在进行“组”判定的时候,依照以下的优先级顺序依次判定:

 /config/users/<user>/clients/<client-id>
/config/users/<user>/clients/<default>
/config/users/<user>
/config/users/<default>/clients/<client-id>
/config/users/<default>/clients/<default>
/config/users/<default>
/config/clients/<client-id>
/config/clients/<default>

一旦找到了符合的“组”,即中止判定过程。

4 超额处理

如果连接超过了配额值会怎么样呢?kafka给出的处理方式是:延时回复给业务方,不使用特定返回码

具体到producer还是consumer,处理方式又有所不同:

  • Producer:如果Producer超额了,先把数据append到log文件,再计算延时时间,并在ProduceResponse的ThrottleTime字段填上延时的时间(v2,只在0.10.0版本以上支持)。
  • Consumer:如果Consumer超额了,先计算延时时间,在延时到期后再去从log读取数据并返回给Consumer。否则无法起到限制对文件系统的读蜂拥。在v1(0.9.0以上版本)和v2版本的FetchResponse中有ThrottleTime字段,表示因为超过配额而延时了多久

kafka中的配额管理(限速)机制的更多相关文章

  1. Kubernetes中资源配额管理

    设置资源请求数量 创建Pod的时候,可以为每个容器指定资源消耗的限制.Pod的资源请求限制则是Pod中所有容器请求资源的总和. apiVersion: v1 kind: Pod metadata: n ...

  2. Android中的内存管理机制以及正确的使用方式

    概述 从操作系统的角度来说,内存就是一块数据存储区域,属于可被操作系统调度的资源.现代多任务(进程)的操作系统中,内存管理尤为重要,操作系统需要为每一个进程合理的分配内存资源,所以可以从两方面来理解操 ...

  3. JavaWeb中Cookie会话管理,理解Http无状态处理机制

    注:图片如果损坏,点击文章链接:https://www.toutiao.com/i6512995108961387015/ 1.<Servlet简单实现开发部署过程> 2.<Serv ...

  4. cocos2dx中的内存管理机制及引用计数

    1.内存管理的两大策略: 谁申请,谁释放原则(类似于,谁污染了内存,最后由谁来清理内存)--------->适用于过程性函数 引用计数原则(创建时,引用数为1,每引用一次,计数加1,调用结束时, ...

  5. kafka中的消费组

    一直以来都想写一点关于kafka consumer的东西,特别是关于新版consumer的中文资料很少.最近Kafka社区邮件组已经在讨论是否应该正式使用新版本consumer替换老版本,笔者也觉得时 ...

  6. Apache ZooKeeper在Kafka中的角色 - 监控和配置

    1.目标 今天,我们将看到Zookeeper在Kafka中的角色.本文包含Kafka中需要ZooKeeper的原因.我们可以说,ZooKeeper是Apache Kafka不可分割的一部分.在了解Zo ...

  7. Kafka中的消息是否会丢失和重复消费(转)

    在之前的基础上,基本搞清楚了Kafka的机制及如何运用.这里思考一下:Kafka中的消息会不会丢失或重复消费呢?为什么呢? 要确定Kafka的消息是否丢失或重复,从两个方面分析入手:消息发送和消息消费 ...

  8. Kafka中非常值得学习的优秀设计

    一.Kafka基础 消息系统的作用 应该大部份小伙伴都清楚,用机油装箱举个例子 所以消息系统就是如上图我们所说的仓库,能在中间过程作为缓存,并且实现解耦合的作用. 引入一个场景,我们知道中国移动,中国 ...

  9. Unity游戏开发中的内存管理_资料

    内存是手游的硬伤——Unity游戏Mono内存管理及泄漏http://wetest.qq.com/lab/view/135.html 深入浅出再谈Unity内存泄漏http://wetest.qq.c ...

随机推荐

  1. Codeforces Round #142 (Div. 1) C. Triangles

    Codeforces Round #142 (Div. 1) C. Triangles 题目链接 今天校内选拔赛出了这个题,没做出来....自己思维能力还不够强吧.我题也给读错了.. 每次拆掉一条边, ...

  2. version GLIBCXX3.4.21 not defined in file libstdc++.so.6 with link time reference

    问题:在运行C++程序时,输入 ./a.out 输出:symbol _ZNSt7__cxx1112basic_stringIcSt11char_traitsIcESaIcEEC1Ev, version ...

  3. 使用ArcGIS for Server的Feature Access REST在线编辑图层

    如何启用Feature Access可以参考以前写的一篇博客:http://www.cnblogs.com/oceanking/p/3895257.html 本文主要关注一个全是点的图层,我也不知道学 ...

  4. RabbitMQ 部署记录

    1. erlang与rabbitmq版本对应关系: https://www.rabbitmq.com/which-erlang.html 2. 安装erlang 下载地址:http://www.erl ...

  5. python应用-彩票随机码的输出

    """ 双色球-6个红色球(1-33)和一个蓝色球(1-16) """ from random import randint def sel ...

  6. 关于springboot项目的jar和war两种打包方式部署的区别

    关于springboot项目的jar和war两种打包方式部署的区别 关于springboot项目的jar和war两种打包方式部署的区别? https://bbs.csdn.net/topics/392 ...

  7. LeetCode 499. The Maze III

    原题链接在这里:https://leetcode.com/problems/the-maze-iii/ 题目: There is a ball in a maze with empty spaces ...

  8. Presto Infrastructure at Lyft

    转载一篇关于 lyft presto 平台建设的实践 Overview Early in 2017 we started exploring Presto for OLAP use cases and ...

  9. 框架入门经典项目TodoMVC

    一.项目介绍 ①地址:http://todomvc.com/ ②GitHub下载模板 ③通过npm下载模板的样式 ④通过npm下载Vuejs ⑤项目文件,主要修改app.js和index.html两个 ...

  10. js之select三级联动

    效果图如下: 代码逻辑梳理:层层递进,比如选择了课程后,将对应的课程id保存,然后点击选择章时自动触发对应的时间,根据这个课程ID获取其下面的章信息.其它的如节等,同理. 代码说明:如下代码不规范,可 ...