Kafka如何保证消息不丢失不重复
首先需要思考下边几个问题:
消息丢失是什么造成的,从生产端和消费端两个角度来考虑
消息重复是什么造成的,从生产端和消费端两个角度来考虑
如何保证消息有序
如果保证消息不重不漏,损失的是什么
大概总结下
消费端重复消费:建立去重表
消费端丢失数据:关闭自动提交offset,处理完之后受到移位
生产端重复发送:这个不重要,消费端消费之前从去重表中判重就可以
生产端丢失数据:这个是最麻烦的情况
解决策略:
1、异步方式缓冲区满了,就阻塞在那,等着缓冲区可用,不能清空缓冲区
2、发送消息之后回调函数,发送成功就发送下一条,发送失败就记在日志里,等着定时脚本来扫描
(发送失败可能并不真的发送失败,只是没收到反馈,定时脚本可能会重发)
如何保证有序:
如果一个发送失败了,后边的就不能继续发了,不然重发的那个肯定就乱序了
生产者在收到发送成功的反馈之前,不能发下一条数据,但我感觉生产者是一个流,阻塞正产者感觉业务不可行,怎么会因为一条消息发出去没收到反馈,就阻塞生产者
同步发送模式:发出消息后,必须阻塞等待收到通知后,才发送下一条消息
异步发送模式:一直往缓冲区写,然后一把写到队列中去
两者都是各有利弊:
同步发送模式虽然吞吐量小,但是发一条收到确认后再发下一条,既能保证不丢失消息,又能保证顺序
Kafka消息保证生产的消息不丢失和不重复消费的问题
1、使用同步模式的时候 ,有3种状态保证消息被安全生产,在配置为1(只保证写入leader成功的话),如果刚好leader partition挂了,数据就会丢失
2、使用异步模式的时候,当缓存区满了,如果配置为0(还没收到确认的情况下,缓冲池一满,就清空缓冲池里的消息),数据就会被立马丢弃掉
在数据生产时避免数据丢失的方法:
只要能避免上述两种情况,那么就可以保证消息不会被丢失。
1、在同步模式的时候,确认机制设置为-1,也就是让消息写入leader和所有的副本。
2、在异步模式的时候,在消息发送出去了,但还没收到确认的时候,缓冲池满了,在配置文件中设置成不限制阻塞超时时间,也就是生产端一直阻塞着,这样也能保证消息不丢失。
在数据消费时,避免数据丢失的方法:如果使用了strom,要开启strom的ackfail机制,如果没有使用strom,确实数据被完成处理时,再更新offset值,低级API中需要手动控制offset值。
消息队列的问题都要从源头找问题,就是生产者是否有问题。
如果数据发送成功,但是接受response的时候丢失了,机器重启之后就会重发。
重发很好解决,消费端增加去重表就能解决,但是如果生产者丢失了数据,问题就很麻烦了。
数据重复消费的情况,如果处理
1、去重:将消息的唯一标识保存到外部介质中,每次消费处理时判断是否处理过
2、不管:大数据场景中,报表系统或者日志信息丢失几条都无所谓,不会影响最终的统计分析结果。
Kafka到底会不会丢数据?通常不会,但有些情况下的确有可能会发生,下面的参数配置及Best practice列表可以较好的保证数据的持久性(当然是trade-off,牺牲了吞吐量)
block.on.buffer.full = true
acks = all
retries = MAX_VALUE
max.in.flight.requests.per.connection = 1
使用KafkaProducer.send(record, callback)
callback逻辑中显式关闭producer:close(0)
unclean.leader.election.enable=false
replication.factor = 3
min.insync.replicas = 2
replication.factor > min.insync.replicas
enable.auto.commit=false
消息处理完成之后再提交位移
给出列表之后,我们从两个方面来探讨一下数据为什么会丢失:
1、Producer端
目前比较新版本的Kafka正式替换了Scala版本的old producer,使用了由java重写的producer,新版本的producer采用异步发送机制,KafkaProducer.send(ProducerRecord)方法仅仅是把这条消息放入一个缓存中(即RecordAccumulator,本质上使用队列来缓存记录),同时后台的IO线程会不断扫描该缓存区,将满足条件的消息封装到某个batch中然后发送出去,显然,这个过程中就有一个数据丢失的窗口:若IO线程发送之前client端挂掉了,累积在accumulator中的数据的确有可能会丢失。
Producer的另一个问题是消息乱序问题,假设客户端代码依次执行下面的语句将两条消息发到相同的分区
producer.send(record1);
producer.send(record2);
如果此时由于某些原因(比如瞬间的网络抖动)导致record1没有成功发送,同时kafka又配置了重试机制和max.in.flight.requests.per.connection大于1(默认值是5,本来就是大于1的),那么重试record1成功后,record1在分区中就在record2之后,从而造成消息的乱序,很多某些要求强顺序保证的场景是不允许出现这种情况的。
发送之后重发就会丢失顺序
鉴于producer的这两个问题,我们应该如何规避呢?对于消息丢失的问题,很容易想到的一个方法就是:既然异步发送有可能丢失数据,我改成同步发送总可以吧?比如这样:
producer.send(record).get();
这样当然是可以的,但是性能会很差,不建议这样使用,因此特意总结了一份配置列表,个人认为该配置清单应该能够比较好的规避producer端数据丢失情况的发生:(但说明一下,软件配置的很多决策都是trade-off,下面的配置也不例外:应用了这些配置,你可能会发现你的producer/consumer吞吐量会下降,这是正常的,因为你换取了更高的数据安全性)
block.on.buffer.full = true 尽管该参数在0.9.0已经被标识为“deprecated”,但鉴于它的含义非常直观,所以这里还是显式设置它为true,使得producer将一直等待缓冲区直至其变为可用,否则如果producer生产速度过快耗尽了缓冲区,producer将抛出异常,缓冲区满了就阻塞在那,不要抛异常,也不要丢失数据。
acks =all 所有的folloer都相应了才认为消息提交成功,即“committed”
retried = Max 无限重试,直到你意识到出现了问题
max.in.flight.requests.per.connection = 1限制客户端在单个连接上能够发送的未响应请求的个数,设置此值是1 表示kafka broker在响应请求之前client不能再向同一个broker发送请求,注意:设置此参数是为了避免消息乱序
使用KafkaProducer.send(record,callback)而不是send(record)方法,自定义回调逻辑处理消息发送失败,比如记录在日志中,用定时脚本扫描重处理callback逻辑中最好显示关闭producer,close(0)注意:设置此参数是为了避免消息乱序(仅仅因为一条消息发送没收到反馈就关闭生产者,感觉代价很大)
unclean.leader.election.enable = false 关闭unclean leader选举,即不允许非ISR中的副本被选举为leader,以避免数据丢失
replication.factor>=3 这个完全是个人建议,参考了hadoop及业界通用的三备份原则
min.insync.replicas > 1消息至少要被写入到这么多副本才算成功,也是提升数据持久性的一个参数,与acks配合使用保证replication.factor>min.insync.replicas 如果两者相等,当一个副本挂掉了分区也就没法正常工作了,通常设置replication.factor = min.insync,replicas + 1即可。
2、Consumer端
consumer端丢失消息的情形比较简单:如果在消息处理完成前就提交了offset,那么就有可能造成数据的丢失,由于kafka consumer默认是自动提交位移的,所以在后台提交位移前一定要保证消息被正常处理了,因此不建议采用很重的处理逻辑,如果处理耗时很长,则建议把逻辑放到另一个线程中取做,为了避免数据丢失,现给出两点建议:
enable.auto.commit = false 关闭自动提交位移
在消息被完整处理之后再手动提交位移
Kafka如何保证消息不丢失不重复的更多相关文章
- Kafka的消息会丢失和重复吗?——如何实现Kafka精确传递一次语义
我们都知道Kafka的吞吐量很大,但是Kafka究竟会不会丢失消息呢?又会不会重复消费消息呢? 图 无人机实时监控 有很多公司因为业务要求必须保证消息不丢失.不重复的到达,比如无人机实时监控系统, ...
- Kafka如何保证数据不丢失
Kafka如何保证数据不丢失 1.生产者数据的不丢失 kafka的ack机制:在kafka发送数据的时候,每次发送消息都会有一个确认反馈机制,确保消息正常的能够被收到,其中状态有0,1,-1. 如果是 ...
- [转帖]kafka 如何保证数据不丢失
kafka 如何保证数据不丢失 https://www.cnblogs.com/MrRightZhao/p/11498952.html 一般我们在用到这种消息中件的时候,肯定会考虑要怎样才能保证数 ...
- 关于MQ的几件小事(四)如何保证消息不丢失
1.mq原则 数据不能多,也不能少,不能多是说消息不能重复消费,这个我们上一节已解决:不能少,就是说不能丢失数据.如果mq传递的是非常核心的消息,支撑核心的业务,那么这种场景是一定不能丢失数据的. 2 ...
- Storm入门(五)Twitter Storm如何保证消息不丢失
转自:http://xumingming.sinaapp.com/127/twitter-storm如何保证消息不丢失/ storm保证从spout发出的每个tuple都会被完全处理.这篇文章介绍st ...
- 【转】Twitter Storm如何保证消息不丢失
Twitter Storm如何保证消息不丢失 发表于 2011 年 09 月 30 日 由 xumingming 作者: xumingming | 可以转载, 但必须以超链接形式标明文章原始出处和作者 ...
- RabbitMQ 如何保证消息不丢失?
RabbitMQ一般情况很少丢失,但是不能排除意外,为了保证我们自己系统高可用,我们必须作出更好完善措施,保证系统的稳定性. 下面来介绍下,如何保证消息的绝对不丢失的问题,下面分享的绝对干货,都是在知 ...
- kafka 如何保证数据不丢失
一般我们在用到这种消息中件的时候,肯定会考虑要怎样才能保证数据不丢失,在面试中也会问到相关的问题.但凡遇到这种问题,是指3个方面的数据不丢失,即:producer consumer 端数据不丢失 b ...
- Kafka如何保证消息的可靠性传输
1.消费端弄丢了数据 唯一可能导致消费者弄丢数据的情况,就是说,你消费到了这个消息,然后消费者那边自动提交了 offset,让 Kafka 以为你已经消费好了这个消息,但其实你才刚准备处理这个消息,你 ...
随机推荐
- 洛谷P2261 余数求和
整除分块的小应用. 考虑到 k % x = k - (k / x) * x 所以把 x = 1...n 加起来就是 k * n - (k / i) * i i = 1...k(注意这里是k) 对于这个 ...
- 【CF263D】Cycle in Graph
题目大意:给定一个 N 个点,M 条边的无向图,保证图中每个节点的度数大于等于 K,求图中一条长度至少大于 K 的简单路径,输出长度和路径包含的点. 题解:依旧采用记录父节点的方式进行找环,不过需要记 ...
- Vue+koa2开发一款全栈小程序(4.Koa入门)
1.Koa是什么? 基于nodejs平台的下一代web开发框架 1.Express原班人马打造,更精简 2.Async+await处理异步 3.洋葱圈型的中间件机制 新建一个koa项目 1.打开cmd ...
- Unicode 与 Unicode Transformation Format(UTF-8 / UTF-16 / UTF-32)
ASCII(American Standard Code for Information Interchange):早期它使用7 bits来表示一个字符,总共表示27 = 128个字符:后来扩展到8 ...
- 打印流(PrintWriter )
PrintWriter package cn.lijun.demo1; import java.io.File; import java.io.FileNotFoundException; impor ...
- python自动化开发-[第十八天]-django的ORM补充与ajax,分页器
今日概要: 1.ORM一对多,多对多 2.正向查询,反向查询 3.聚合查询与分组查询 4.F查询和Q查询 5.ajax 6.分页器 一.ORM补充: django在终端打印sql语句设置: LOGGI ...
- 使用property为类中的数据添加行为
对于面向对象编程特别重要的是,关注行为和数据的分离. 在这之前,先来讨论一些“坏”的面向对象理论,这些都告诉我们绝不要直接访问属性(如Java): class Color: def __init__( ...
- MySQL复制相关参数详解
MySQL复制相关参数详解 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.复制相关系统变量 1>.server_id 是必须设置在master和每个slave上的唯一标 ...
- centos 7 上zabbix 3.0 服务端安装
zabbix服务端安装 安装完毕mysql-5.6.php5.6 mysql-5.6安装:https://www.cnblogs.com/xzlive/p/9771642.html 创建zabbix ...
- Xstart Insatll And Usage
不进入 Linux 桌面环境,又需要运行一些图形化的软件,比如 Oracle 数据库的安装等 安装 Windows 上 Xstart 安装:https://www.cnblogs.com/jhxxb/ ...