kafka支持配额管理,从而可以对Producer和Consumer的produce&fetch操作进行流量限制,防止个别业务压爆服务器。本文主要介绍如何使用kafka的配额管理功能。

1 Kafka Quatas简介

Kafka配额管理所能配置的对象(或者说粒度)有3种:

user + clientid
user
clientid
这3种都是对接入的client的身份进行的认定方式。其中,

  • clientid是每个接入kafka集群的client的一个身份标志,在ProduceRequest和FetchRequest中都需要带上;
  • user只有在开启了身份认证的kafka集群才有。

如果kafka集群没有开启身份认证,则只能使用clientid方式来进行限流。

可配置的选项包括:

  • producer_byte_rate。发布者单位时间(每秒)内可以发布到单台broker的字节数。
  • consumer_byte_rate。消费者单位时间(每秒)内可以从单台broker拉取的字节数。

2 如何配置

可以通过两种方式来作配额管理:

  1. 在配置文件中指定所有client-id的统一配额。
  2. 动态修改zookeeper中相关znode的值,可以配置指定client-id的配额。

使用第一种方式,必须重启broker,而且还不能针对特定client-id设置。所以,推荐大家使用第二种方式

2.1 使用官方脚本修改配额

kafka官方的二进制包中,包含了一个脚本bin/kafka-configs.sh,支持针对user,client-id,(user,client-id)等三种纬度设置配额(也是通过修改zk来实现的)。

#1. 配置user+clientid。例如,user为”user1”,clientid为”clientA”。
bin/kafka-configs.sh --zookeeper localhost: --alter --add-config 'producer_byte_rate=1024,consumer_byte_rate=2048' \
--entity-type users --entity-name user1 --entity-type clients --entity-name clientA #2. 配置user。例如,user为”user1”
bin/kafka-configs.sh --zookeeper localhost: --alter --add-config 'producer_byte_rate=1024,consumer_byte_rate=2048' \
--entity-type users --entity-name user1 #3. 配置client-id。例如,client-id为”clientA”
bin/kafka-configs.sh --zookeeper localhost: --alter --add-config 'producer_byte_rate=1024,consumer_byte_rate=2048' \
--entity-type clients --entity-name clientA

2.2 直接写zk来修改配额

假定我们在启动kafka时指定的zookeeper目录是kafka_rootdir

#. 配置user+clientid。例如,针对”user1”,”clientA”的配额是10MB/sec,其它clientid的默认配额是5MB/sec。
znode: ${kafka_rootdir}/config/users/user1/clients/clientid;
value: {"version":,"config":{"producer_byte_rate":"","consumer_byte_rate":""}} znode: {kafka_rootdir}/config/users/user1/clients/<default>;
value: {"version":,"config":{"producer_byte_rate":"","consumer_byte_rate":""}} #. 配置user。例如,”user2”的配额是1MB/sec,其它user的默认配额是5MB/sec。
znode: ${kafka_rootdir}/config/users/user1;
value: {"version":,"config":{"producer_byte_rate":"","consumer_byte_rate":""}} znode: ${kafka_rootdir/config/users/<default>;
value: {"version":,"config":{"producer_byte_rate":"","consumer_byte_rate":""}} #. 配置client-id。例如,”clientB”的配额是2MB/sec,其它clientid的默认配额是1MB/sec。
znode:${kafka_rootdir}/config/clients/clientB';
value:{“version”:,”config”:{“producer_byte_rate”:””,”consumer_byte_rate”:””}}</li> znode:${kafka_rootdir}/config/clients/;
value:{“version”:,”config”:{“producer_byte_rate”:””,”consumer_byte_rate”:””}}`

3 优先级
首先,我们需要明白,kafka在管理配额的时候,是以“组”的概念来管理的。而管理的对象,则是producer或consumer到broker的一条条的TCP连接。

那么在进行额度管理的时候,kafka首先需要确认,这条连接属于哪个“组”,进而确定当前连接是否超过了所属“组”的总额度。

在进行“组”判定的时候,依照以下的优先级顺序依次判定:

 /config/users/<user>/clients/<client-id>
/config/users/<user>/clients/<default>
/config/users/<user>
/config/users/<default>/clients/<client-id>
/config/users/<default>/clients/<default>
/config/users/<default>
/config/clients/<client-id>
/config/clients/<default>

一旦找到了符合的“组”,即中止判定过程。

4 超额处理

如果连接超过了配额值会怎么样呢?kafka给出的处理方式是:延时回复给业务方,不使用特定返回码

具体到producer还是consumer,处理方式又有所不同:

  • Producer:如果Producer超额了,先把数据append到log文件,再计算延时时间,并在ProduceResponse的ThrottleTime字段填上延时的时间(v2,只在0.10.0版本以上支持)。
  • Consumer:如果Consumer超额了,先计算延时时间,在延时到期后再去从log读取数据并返回给Consumer。否则无法起到限制对文件系统的读蜂拥。在v1(0.9.0以上版本)和v2版本的FetchResponse中有ThrottleTime字段,表示因为超过配额而延时了多久

kafka中的配额管理(限速)机制的更多相关文章

  1. Kubernetes中资源配额管理

    设置资源请求数量 创建Pod的时候,可以为每个容器指定资源消耗的限制.Pod的资源请求限制则是Pod中所有容器请求资源的总和. apiVersion: v1 kind: Pod metadata: n ...

  2. Android中的内存管理机制以及正确的使用方式

    概述 从操作系统的角度来说,内存就是一块数据存储区域,属于可被操作系统调度的资源.现代多任务(进程)的操作系统中,内存管理尤为重要,操作系统需要为每一个进程合理的分配内存资源,所以可以从两方面来理解操 ...

  3. JavaWeb中Cookie会话管理,理解Http无状态处理机制

    注:图片如果损坏,点击文章链接:https://www.toutiao.com/i6512995108961387015/ 1.<Servlet简单实现开发部署过程> 2.<Serv ...

  4. cocos2dx中的内存管理机制及引用计数

    1.内存管理的两大策略: 谁申请,谁释放原则(类似于,谁污染了内存,最后由谁来清理内存)--------->适用于过程性函数 引用计数原则(创建时,引用数为1,每引用一次,计数加1,调用结束时, ...

  5. kafka中的消费组

    一直以来都想写一点关于kafka consumer的东西,特别是关于新版consumer的中文资料很少.最近Kafka社区邮件组已经在讨论是否应该正式使用新版本consumer替换老版本,笔者也觉得时 ...

  6. Apache ZooKeeper在Kafka中的角色 - 监控和配置

    1.目标 今天,我们将看到Zookeeper在Kafka中的角色.本文包含Kafka中需要ZooKeeper的原因.我们可以说,ZooKeeper是Apache Kafka不可分割的一部分.在了解Zo ...

  7. Kafka中的消息是否会丢失和重复消费(转)

    在之前的基础上,基本搞清楚了Kafka的机制及如何运用.这里思考一下:Kafka中的消息会不会丢失或重复消费呢?为什么呢? 要确定Kafka的消息是否丢失或重复,从两个方面分析入手:消息发送和消息消费 ...

  8. Kafka中非常值得学习的优秀设计

    一.Kafka基础 消息系统的作用 应该大部份小伙伴都清楚,用机油装箱举个例子 所以消息系统就是如上图我们所说的仓库,能在中间过程作为缓存,并且实现解耦合的作用. 引入一个场景,我们知道中国移动,中国 ...

  9. Unity游戏开发中的内存管理_资料

    内存是手游的硬伤——Unity游戏Mono内存管理及泄漏http://wetest.qq.com/lab/view/135.html 深入浅出再谈Unity内存泄漏http://wetest.qq.c ...

随机推荐

  1. vue-router有哪几种导航钩子?(具体怎么用的)

    三种,第一种:是全局导航钩子:router.beforeEach(to,from,next),作用:跳转前进行判断拦截.第二种:组件内的钩子第三种:单独路由独享组件 .

  2. wordpress定时发布失败Missed Schedule解决方法

    今天一位客户的网站设置了文章定时发布但却没有发布成功,提示Missed Schedule错误,把所有的插件都暂停了再设置定时发布也不行,那就只能寻找其他的解决方案了.ytkah查看一下有没相关修复插件 ...

  3. spark jdbc(mysql) 读取并发度优化

    转自:https://blog.csdn.net/lsshlsw/article/details/49789373 很多人在spark中使用默认提供的jdbc方法时,在数据库数据较大时经常发现任务 h ...

  4. SparkStreaming 性能、稳定、容错与语义

      怎样提高Spark Streaming的性能 1.创建多个接收器 待定:: 2.调节每一个batch interval的数据块的数量,其实就是调整上面第二个问题中提到的配置spark.stream ...

  5. node中https请求 | 实现https的请求,获取图片,然后转成base64字节码

    get请求 下面实现https的请求,获取图片,然后转成base64字节码 this.checkCodeUrl = 'https://www.test.com/kaptcha.jsp'; var ht ...

  6. 验证码破解 | Selenium模拟登录知乎

      import requests import re import execjs import time import hmac from hashlib import sha1 class Zhi ...

  7. 使用openrc 管理容器中的服务

    对于后台任务一般是不建议在容器中运行的,但是如果我们为了简化应用的部署,可能会使用后台任务进行服务的管理,类似的 工具很多,supervisor,systemd , init.d 同时对于docker ...

  8. BZOJ 4816[SDOI2017]数字表格(莫比乌斯反演)

    题目链接 \(Description\) 用\(f_i\)表示\(fibonacci\)数列第\(i\)项,求\(\prod_{i=1}^{n}\prod_{j=1}^{m}f[gcd(i,j)]\) ...

  9. string类的用法总结

    string中常见的成员函数 示例代码: string s= string("abcdefg"); char ch[] = "abcdefgd"; //调用构造 ...

  10. SpringBoot:使用feign调用restful服务时地址栏传参

    1.服务提供者(controller层) @GetMapping("/user/{id}") public ApiResult getById(@PathVariable(&quo ...