Kafka 中有这样一个概念消费者组,所有我们去订阅 topic 和 topic 交互的一些操作我们都是通过消费者组去交互的. 在 consumer 端设置了消费者的名字之后,该客户端可以对多个 topic 进行订阅.我们也可以通过 group-id 来识别是谁在消费消息,或者在消费哪些组的消息. 发挥 consumer 最大的效果就是和 broker 的 topic 下的 partitions 数相等. 做到一个 parititons 分配一个独立的 consumer 去消费能达到最高效果,比…
之前使用 Kafka 的客户端消费者比较多一点,而且也是无脑订阅使用也没有深入了解过具体的参数.总的来说使用不够细节. 这次公司项目活动期间暴露非常多的问题,于是有了这篇文章. 首先我们来拆解一下 Kafka KafkaProducer 类给我们暴露的参数,我会依次介绍一下这些参数的功能以及效果,其中也包括比较重要的自定义 paritiition 的参数. 1. bootstrap_servers bootstrap_servers: 'host[:port]' string (or list…
注意本文采用最新版本进行Kafka的内核原理剖析,新版本每一个Consumer通过独立的线程,来管理多个Socket连接,即同时与多个broker通信实现消息的并行读取.这就是新版的技术革新.类似于Linux I/O模型或者Select NIO 模型. Poll为什么要设置一个超时参数 条件: 1:获取足够多的可用数据 2:等待时间超过指定的超时时间. 目的在于让Consumer主线程定期的""苏醒"去做其他事情.比如:定期的执行常规任务,(比如写日志,写库等). 获取消息,…
原创声明:作者:Arnold.zhao 博客园地址:https://www.cnblogs.com/zh94 背景 上一篇文章记录了kafka的副本机制和容错功能的说明,本篇则主要在上一篇文章的基础上,验证多分区Topic的消费者的功能验证: 目录: 消费组功能验证 消费者与分区的对应关系总结 消费者数据重复问题说明 生产者的可靠性保证 Kafka 生产者CP系统 Kafka 生产者AP系统 命令汇总 消费组功能验证 新建1副本,2分区的Topic做测试验证 ./kafka-topics.sh…
     Hadoop生态圈-Kafka的新API实现生产者-消费者 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任.…
Hadoop生态圈-Kafka的旧API实现生产者-消费者 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.旧API实现生产者-消费者 1>.开启kafka集群 [yinzhengjie@s101 ~]$ more `which xkafka.sh` #!/bin/bash #@author :yinzhengjie #blog:http://www.cnblogs.com/yinzhengjie #EMAIL:y1053419035@qq.com #判断用户是否传参 ];…
1.消费者与Partition 以下来自<kafak权威指南>第4章. 假设主题T1有四个分区. 1.1.一个消费者组 1.1.1.消费者数量小于分区数量 只有一个消费者时,消费者1将收到4个分区的全部消息. 当有两个消费者时,每个消费者将分别从两个分区接受消息. 1.1.2.消费者数量等于分区数量 当有四个消费者时,每个消费者都可以接受一个分区的消息. 1.1.3.消费者数量大于于分区数量 当有五个消费者时,会有闲置的消费者. 1.2.两个消费者组 消费者群组之间是互不影响的,如图: 2.分…
Kafka 提供了一个消息交付可靠性保障以及精确处理一次语义的实现.通常来说消息队列都提供多种消息语义保证 最多一次 (at most once): 消息可能会丢失,但绝不会被重复发送. 至少一次 (at least once): 消息不会丢失,但有可能被重复发送. 精确一次 (exactly once): 消息不会丢失,也不会被重复发送. 默认情况下社区维护的 python-kafka 包会使用 ack1 但是 retry 0 的设置,也就是说 python-kafka 不会对发送失败的消息进…
1.命令 2.启动生产者 bin/kafka-console-producer.sh --topic beifeng --broker-list linux-hadoop01.ibeifeng.com:9092,linux-hadoop01.ibeifeng.com:9093,linux-hadoop01.ibeifeng.com:9094.linux-hadoop01.ibeifeng.com:9095 3.启动消费者 bin/kafka-console-consumer.sh --topic…
前面两篇博客已经完成了Kafka的搭建,今天再来点稍高难度的帖子. 测试一下kafka的消息消费行为.虽然,kafka有测试的shell脚本可以直接测试,但既然我最近在玩python,那还是用python程序来做个测试. 1)首先需要kafka-python安装包. 这个包依赖的是python 3以上的版本,但是linux7默认都是安装2.7版本. 当然,你也可以在linux下安装一个3.x版本,但是如此又会需要调整yum(依赖python 2.7)等一大堆东西. 还有我习惯于windows下调…