最近在使用kafka,过程中遇到了一些疑问,在查阅了一些资料和相关blog之后,关于手动提交offset的问题,做一下总结和记录. 消费端手动提交offset代码如下: /** * 这是手动提交的消费方式 * @param record * @param ack * @throws Exception */ @KafkaListener(topics = TopicConstants.COMMON_PAY,groupId = "写自己的消费组 id") public void list…
spring-kafka的官方文档介绍,可以知道自1.1版本之后, @KafkaListener开始支持批量消费,只需要设置batchListener参数为true 把application.yml中的enable-auto-commit设置为false,设置为不自动提交   @Bean public KafkaListenerContainerFactory<?> batchFactory(ConsumerFactory consumerFactory){ ConcurrentKafkaLi…
在kafka的消费者中,有一个非常关键的机制,那就是offset机制.它使得Kafka在消费的过程中即使挂了或者引发再均衡问题重新分配Partation,当下次重新恢复消费时仍然可以知道从哪里开始消费.它好比看一本书中的书签标记,每次通过书签标记(offset)就能快速找到该从哪里开始看(消费). Kafka对于offset的处理有两种提交方式:(1) 自动提交(默认的提交方式)   (2) 手动提交(可以灵活地控制offset) (1) 自动提交偏移量: Kafka中偏移量的自动提交是由参数e…
1.kafka在高并发的情况下,如何避免消息丢失和消息重复? 消息丢失解决方案: 首先对kafka进行限速, 其次启用重试机制,重试间隔时间设置长一些,最后Kafka设置acks=all,即需要相应的所有处于ISR的分区都确认收到该消息后,才算发送成功 消息重复解决方案: 消息可以使用唯一id标识 生产者(ack=all 代表至少成功发送一次) 消费者 (offset手动提交,业务逻辑成功处理后,提交offset) 落表(主键或者唯一索引的方式,避免重复数据) 业务逻辑处理(选择唯一主键存储到R…
我大约是把kafka消费不到数据的特殊情况都经历了一遍了吧= =. kafka消费不到数据的原因,首先检查配置之类的,如是否设置了group.id,对应的topic是否正确等等,这些不多说. 下面是我遇到的几种kafka消费不到数据的情况: 1.多分区,单例消费者的情况,只消费到一个分区,应多加几个消费者,不能用单例,直接subscribe的话,rebalance机制启动,手动的话如下 consumer.Assign(), Offset.Stored) }); 2.长时间不消费导致 log.re…
Kafka 提供了 3 种提交 offset 的方式 自动提交 复制 1234 consumer.commitSync(); 手动异步提交 offset 复制 1 consumer.commitAsync(); 上面说了既然异步提交 offset 可能会重复消费, 那么我使用同步提交是否就可以表明这个问题呢? 复制 1234567 )); records.forEach(record -> { insertIntoDB(record); consumer.commitSync(); });} 很…
本文主要分享下Spring Boot和Spring Kafka如何配置整合,实现发送和接收来自Spring Kafka的消息. 先前我已经分享了Kafka的基本介绍与集群环境搭建方法.关于Kafka的介绍请阅读Apache Kafka简介与安装(一),关于Kafka安装请阅读Apache Kafka安装,关于Kafka集群环境搭建请阅读Apache Kafka集群环境搭建 .这里关于服务器环境搭建不在赘述. Spring Kafka整合Spring Boot创建生产者客户端案例 创建一个kafk…
消费者拉取钱程拉取每个分区的数据,会将分区的消息集包装成一个数据块( FetchedDataChunk )放入分区信息的队列中 . 而每个队列都对应一个消息流( KafkaStream ),消费者客户端选代消息流,实际上是迭代每个数据块中消息集的每条消息 . 一个队列包含多个数据块,每个数据块对应一个分区的消息集, 一个消息集包含多条消息 . 消费者迭代器( ConsumerIterator)封装了迭代获取消息的逻辑,客户端不需要面向数据块.消息集这些内部对象,只需要对消费者迭代器循环获取消息即…
KafkaConsumer(消费者)每次调用 poll()方法,它总是返回由生产者写入 Kafka但还没有被消费者读取过的记录, 我们因 此可以追踪到哪些记录是被群组里的哪个消费者读取的.之前已经讨论过, Kafka 不会像其他 JMS 队列那样需要得到消费者的确认,这是 Kafka 的一个独特之处.相反,消 费者可以使用 Kafka来追踪消息在分区里的位置(偏移量). 我们把更新分区当前位置的操作叫作提交. 那么消费者是如何提交偏移量的呢?消费者往一个 叫作 _consumer_offset…
consumer group consumer instance 一个消费组可能有一个或者多个消费者.同一个消费组可以订阅一个或者多个主题.主题的某一个分区只能被消费组的某一个消费者消费.那么分区和消费者之间是如何对应的呢? 假设消费组cg1(group.id=cg1)订阅了topic1,cg1有3个消费者c1.c2.c3,topic1有5个分区p1.p2.p3.p4.p5.那么c1消费topic1的哪个或者哪些分区呢?p1要被cg1的哪个消费者消费呢? kafka2.2.0源码中有一个Part…