为什么是kafka?
MQ在分布式场景下的应用已经非常广泛了。可是在全部的MQ使用场景中,大多都要求不能丢消息。意味着必须有持久化的能力,传统行业经常使用的activemq、rabbitmq尽管有持久化能力,无奈的是性能太低。扩展性太差。对于互联网公司来说,要么就去基于他们去扩展,要么就是自己研发一个新的MQ。自从kafka横空出世。唤醒了人们对高性能 MQ的追求。
实际上kafka0.8版本号已经脱胎换骨,再也不仅仅是适合日志收集的场景了,kafka在可靠性方面做了非常多改进。实际上kafka已经能够用在企业级应用里面了。
怎样达到高性能?
1、 顺序写
磁盘的IO是全部应用性能的万恶之源。磁盘的顺序写能达到几百M每秒,而随机写仅仅有几十K,假设是一个千兆网卡,真实性能也就百M左右,可见,磁盘顺序写的威力巨大。
2、 零拷贝
某些情况下,数据的传输是不须要经过应用程序的,能够降低数据在用户空间和系统空间的缓冲区进行copy,降低对cpu和网卡的消耗,这样能够获得非常好的性能。Linux下提供此功能的系统调用主要有sendfile、mmap、splice。
3、 扩展性
假设要想突破单机的性能,必须拥有良好的扩展性,kafka能够在topic下建立partition,partition才是kafka的最小单位。这样就意味着同一个topic能够持久化到N台物理机上,仅仅要有足够的分区。
Kafka天生的分布式特性,差点儿能够无限的扩展。
实际上,kafka的吞吐量能够达到几万TPS,性能很高。而且扩展性如此高。在大并发、大数据量的场景下很适合。
怎么保证不丢消息?
丢消息主要有下面几个地方:
1、生产者发送消息。Kafka是採用ack机制保障的,假设消息没法送成功。也不会返回ack,所以。只要在生产者端做好重试机制就好。
怎样做好重试机制。又是一个很大的话题,此处不扩展开来。
Kafka服务端收到消息后能够直接拷贝到其它分片。成功后再通知生产者确定收到消息。就算不做同步的持久化,假设有三个节点,除非三个物理机同一时候宕机才会丢失数据。注意,这里假设不过kafka进程挂掉是不会丢数据的,操作系统会把数据持久化到磁盘。
2、Kafka存储的消息会不会丢失?kafka有定时删除策略,不以是否消费为前提,也就意味着没有经过消费的消息删除后就丢了,由于磁盘足够大。几天不删应该不是问题,假设几天的数据没有被消费你都没发现,那仅仅能怪你的监控系统太弱。或者你的应用量太小。出问题都没人发现,那也没有必要使用kafka。
3、消费消息。假设使用high level的api,全部消费者的信息都是存储在zookeeper中的,zookeeper的可靠性此处不必赘述。假设採用simple api。offset的可靠性要依赖于存储。务必小心。最好做充足的备份方案。
不管哪种方式,假设不能正常消费,你能够不去移动offset,这个地方全然能够自己控制。
有反复的消息怎么办?
尽管这样造成了反复消息的问题,可是这是非常难避免的,试想。像activeMQ那样,就算在服务端做了去重,消费时一样有可能会反复消费,不仅仅是在MQ中,就算你调用一个普通的服务接口,也有可能反复调用,最好的办法是通过业务尽量实现幂等性。比如添加唯一键。
从这些角度考虑。在互联网和大并发的企业级应用中,kafka会越来越重要,会被很多其它的人重视。就算是不用kafka,也会有跟kafka类似的架构模式、原理几乎相同的MQ,类似于rocketMQ。如今差的,就是被很多其它的企业使用。更复杂的场景证明。
为什么是kafka?的更多相关文章
- Spark踩坑记——Spark Streaming+Kafka
[TOC] 前言 在WeTest舆情项目中,需要对每天千万级的游戏评论信息进行词频统计,在生产者一端,我们将数据按照每天的拉取时间存入了Kafka当中,而在消费者一端,我们利用了spark strea ...
- 消息队列 Kafka 的基本知识及 .NET Core 客户端
前言 最新项目中要用到消息队列来做消息的传输,之所以选着 Kafka 是因为要配合其他 java 项目中,所以就对 Kafka 了解了一下,也算是做个笔记吧. 本篇不谈论 Kafka 和其他的一些消息 ...
- kafka学习笔记:知识点整理
一.为什么需要消息系统 1.解耦: 允许你独立的扩展或修改两边的处理过程,只要确保它们遵守同样的接口约束. 2.冗余: 消息队列把数据进行持久化直到它们已经被完全处理,通过这一方式规避了数据丢失风险. ...
- .net windows Kafka 安装与使用入门(入门笔记)
完整解决方案请参考: Setting Up and Running Apache Kafka on Windows OS 在环境搭建过程中遇到两个问题,在这里先列出来,以方便查询: 1. \Jav ...
- kafka配置与使用实例
kafka作为消息队列,在与netty.多线程配合使用时,可以达到高效的消息队列
- kafka源码分析之一server启动分析
0. 关键概念 关键概念 Concepts Function Topic 用于划分Message的逻辑概念,一个Topic可以分布在多个Broker上. Partition 是Kafka中横向扩展和一 ...
- Kafka副本管理—— 为何去掉replica.lag.max.messages参数
今天查看Kafka 0.10.0的官方文档,发现了这样一句话:Configuration parameter replica.lag.max.messages was removed. Partiti ...
- Kafka:主要参数详解(转)
原文地址:http://kafka.apache.org/documentation.html ############################# System ############### ...
- kafka
2016-11-13 20:48:43 简单说明什么是kafka? Apache kafka是消息中间件的一种,我发现很多人不知道消息中间件是什么,在开始学习之前,我这边就先简单的解释一下什么是消息 ...
- Spark Streaming+Kafka
Spark Streaming+Kafka 前言 在WeTest舆情项目中,需要对每天千万级的游戏评论信息进行词频统计,在生产者一端,我们将数据按照每天的拉取时间存入了Kafka当中,而在消费者一端, ...
随机推荐
- SQL Server 2008R2 Set IDENTITY_INSERT 表名 ON/OFF不能与insert into select 的语句一起执行?
大家都知数据库表中的列可以自增长,但是有时候我们需要插入数据的时候会指定这一列的数据. 这时候我们可以很简单的利用sql语句来执行新增一条的数据,如下: set IDENTITY_INSER 表名 o ...
- T-SQL查询基础
今天来带大家了解下在sql server 中的查询机制 使用select语句进行查询 1.查询所有的数据行和列 select * from student 2.查询部分行和列 select scode ...
- 一、CSS的基础样式
CSS的基础样式 border 边框 复合写法 border:border-width border-style border-color: border-width:边框宽度 top right ...
- Android RecyclerView使用 及 滑动时加载图片优化方案
1.控制线程数量 + 数据分页加载2.重写onScrollStateChanged方法 这个我们后面再谈,下面先来看看RecyclerView控件的使用及我们为什么选择使用它 RecyclerView ...
- Hibernate中使用子查询
子查询: 子查询是SQL语句中非常重要的功能特性,它可以在SQL语句中利用另外一条SQL语句的查询结果,在Hibernate中HQL查询同样对子查询功能提供了支持. 如下面代码所示: List ...
- Android项目实战_手机安全卫士软件管家
###1.应用程序信息的flags 1. int flags = packageInfo.applicationInfo.flags2. 0000 0000 0000 0000 0000 0000 0 ...
- php中的抽象方法和抽象类
1.什么是抽象方法? 我们在类里面定义的没有方法提的方法就是抽象方法.所谓的没有方法体指的是,在声明的时候没有大括号以及其中的内容,而是直接在声明时在方法名后加上分号结束,另外在声明抽象方法时方 ...
- Centos6.6 安装rsync服务端
一.介绍 在工作中经常遇到代码分发,或者是资料备份,都会用到rsync,配置不算复杂,仅做下记录,安装环境如下: 1) Centos6.6 2) rsync-3.0.6-12.el6.x86_64 3 ...
- Linux添加FTP用户并设置权限
在linux中添加ftp用户,并设置相应的权限,操作步骤如下: 1.环境:ftp为vsftp.被限制用户名为test.被限制路径为/home/test 2.建用户,命令行状态下,在root用户下: 运 ...
- Nginx +tomcat 实现负载均衡集群
一. 工具 nginx-1.8.0 apache-tomcat-6.0.33 二. 目标 实现高性能负载均衡的Tomcat集群: 三. 步骤 1.首先下载Nginx ...