前言

  • 最近在搭一个离线Hadoop + 实时SparkStreaming的日志处理系统,然后发现基本上网上的这种系统都集成了kafka。
  • 自己对kafka有一点点的认识,之前看过官网文档,用过一次,就了解到它是个消息队列。好像说是比起其他的消息队列,对多subscriber更友好。
  • 所以google了一些kafka的应用场景,来加深一下理解。

Use Cases

Messaging

  • Kafka works well as a replacement for a more traditional message broker.
  • 一般来说,message broker有多重使用原因:
    • To decouple processing from data producers;
    • To buffer unprocessed messages.
    • 关于Message Broker,往下拉,看下一章节~
  • Kafka与大多数messaging系统相比,有更高的吞吐量(throughput),内置分区(built-in partitioning),复本(replication),容错性(fault-tolerance)。

Website Activity Tracking

  • Kafka的原始的用例是作为实时publish-subscribe feeds用以重建一个用户活动追踪管道。
  • 这意味着网页活动(包括页面浏览、搜索或其他用户行为),每个活动类型都会作为一个topic被发送到一个central topics。
  • These feeds are available for subscription for a range of use cases including real-time processing, real-time monitoring, and loading into Hadoop or offline data warehousing systems for offline processing and reporting.
  • Activity tracking通常有high volume,因为许多活动消息都是对每个用户生成的。

Metrics

  • Kafka经常用来操作数据管道的监控。这包括从分布式应用中聚集数据来产生操作数据的centralized feeds.

Log Aggregation

  • 日志聚合通常是从servers中收集物理log文件,并将它们放到一个central place(一个文件服务器或HDFS等)去处理。
  • Kafka去掉了文件细节,并将log或event数据的摘要作为一个消息流。这考虑到了低延迟的处理,对多数据源的更简单的支持,以及分布式数据消耗。
  • 相比于log-centric系统,比如Scribe或Flume,kafka提供了相同的优越性能,基于副本的更强的持久性保证,以及更低的端到端延迟。

Streaming Processing

  • TBD...

Message Broker

  • A message broker is an intermediary program module that translates a message from the formal messaging protocol of the sender to the formal messaging protocol of the receiver. [消息代理是一个中间编程模块,它可以将sender的正式消息协议翻译成receiver的正式消息协议]。
  • 消息代理调解众多应用之间的通信,最小化应用之间交换消息时对彼此的awareness,高效地实现解耦decoupling。
  • broker的目的是从applications中取得incoming message,并基于它们做一些action。以下是broker可以采取的actions:
    • 将消息路由到多个目的地;
    • 将消息转化为an alternative representation;
    • 执行消息聚合,将消息分解成多个消息并发送到相应目的地,然后recomposing the response成一个消息,并返回给user;
    • 与外部存放处(external repository)交互来增加一条消息并存储;
    • 唤起web services来取得数据;
    • 对events和errors作出response;
    • 使用publish-subscribe模式来提供内容和基于topic的消息路由。

Kafka VS Flume

  • 看了很多博客,大概都是在强调:
    1. 有多个consumers用Kafka;
    2. 如果是要导数据到Hadoop生态系统,用Flume。
  • 其中这篇blog写的不错。Flume or kafka
  • 现在的趋势是,将Kafka与Flume结合。

Kafka Over Flume

  • 相比于Flume,Kafka胜在它极好的可扩展性和消息持久性:
  • Kafka is very scalable.
    • kafka的一个最大的优点就是它很容易添加大量的consumer,却不影响性能。这是因为Kafka不追踪topic中的消息是否已经被consumed,它只是简单地在一个configurable周期内保存topic中的所有消息。它是consumer自身通过offset来追踪。
    • 相比之下,Flume添加consumers意味着改变Flume管道的拓扑设计,复制channel以传送数据到一个新的sink。同时,由于需要改变flume的拓扑结构,那么就需要一些down time。
    • kafka的可扩展性也体现在它能处理大量events上,kafka可以处理100k+ 每秒的生产到来速度。由于kafka consumers是pull-based,所以不同consumers可以以不同速度消费消息。同时kafka也支持不同消费模型,你可以实时处理消息,也可以以批处理模式处理消息。
    • 相比之下,Flume sink是push-based模型,当event生产者突然产生a flood of messages, 即使有flume channel可以作为source和sink之间的buffer,sink端仍然会被写操作淹没。
  • 消息的持久性也是一个重要考量。
    • Flume既提供短暂的基于内存的channel,也提供耐用的基于文件的channel。在agent fail掉之后,即使你使用file-based channel, 任何存储在channel中还未写到sink的event都会不可用,直到agent被恢复。
    • 相比之下,Kafka提供了同步和不同步的副本策略,基于你的持久性要求。

Flume over Kafka

  • Flume与Hadoop生态系统紧密结合。比如,flume HDFS sink与HDFS安全性融合非常好。所以Flume经常被用作ingest数据到Hadoop的消息管道。
  • Flume最主要的优点就是它支持多种内置sources和sinks,方便你开箱即用。相比之下,如果你使用Kafka,你需要定制生产者和消费者。(但是随着kafka越发流行,有很多框架为kafka添加了集成)。
  • Kafka本身没有提供消息处理,所以它可能需要集成一些其他的事件处理框架,比如Apache Storm来完成这项工作。
  • 相比之下,Flume提供了多种数据流模型和拦截器链,这使得事件过滤和转换很方便。比如说,你可以在管道中过滤掉你不需要的消息,而不需要在网络中传输了。但是这也不适合做很复杂的时间处理。

<kafka><应用场景><Kafka VS Flume>的更多相关文章

  1. 简单物联网:外网访问内网路由器下树莓派Flask服务器

    最近做一个小东西,大概过程就是想在教室,宿舍控制实验室的一些设备. 已经在树莓上搭了一个轻量的flask服务器,在实验室的路由器下,任何设备都是可以访问的:但是有一些限制条件,比如我想在宿舍控制我种花 ...

  2. 利用ssh反向代理以及autossh实现从外网连接内网服务器

    前言 最近遇到这样一个问题,我在实验室架设了一台服务器,给师弟或者小伙伴练习Linux用,然后平时在实验室这边直接连接是没有问题的,都是内网嘛.但是回到宿舍问题出来了,使用校园网的童鞋还是能连接上,使 ...

  3. 外网访问内网Docker容器

    外网访问内网Docker容器 本地安装了Docker容器,只能在局域网内访问,怎样从外网也能访问本地Docker容器? 本文将介绍具体的实现步骤. 1. 准备工作 1.1 安装并启动Docker容器 ...

  4. 外网访问内网SpringBoot

    外网访问内网SpringBoot 本地安装了SpringBoot,只能在局域网内访问,怎样从外网也能访问本地SpringBoot? 本文将介绍具体的实现步骤. 1. 准备工作 1.1 安装Java 1 ...

  5. 外网访问内网Elasticsearch WEB

    外网访问内网Elasticsearch WEB 本地安装了Elasticsearch,只能在局域网内访问其WEB,怎样从外网也能访问本地Elasticsearch? 本文将介绍具体的实现步骤. 1. ...

  6. 怎样从外网访问内网Rails

    外网访问内网Rails 本地安装了Rails,只能在局域网内访问,怎样从外网也能访问本地Rails? 本文将介绍具体的实现步骤. 1. 准备工作 1.1 安装并启动Rails 默认安装的Rails端口 ...

  7. 怎样从外网访问内网Memcached数据库

    外网访问内网Memcached数据库 本地安装了Memcached数据库,只能在局域网内访问,怎样从外网也能访问本地Memcached数据库? 本文将介绍具体的实现步骤. 1. 准备工作 1.1 安装 ...

  8. 怎样从外网访问内网CouchDB数据库

    外网访问内网CouchDB数据库 本地安装了CouchDB数据库,只能在局域网内访问,怎样从外网也能访问本地CouchDB数据库? 本文将介绍具体的实现步骤. 1. 准备工作 1.1 安装并启动Cou ...

  9. 怎样从外网访问内网DB2数据库

    外网访问内网DB2数据库 本地安装了DB2数据库,只能在局域网内访问,怎样从外网也能访问本地DB2数据库? 本文将介绍具体的实现步骤. 1. 准备工作 1.1 安装并启动DB2数据库 默认安装的DB2 ...

  10. 怎样从外网访问内网OpenLDAP数据库

    外网访问内网OpenLDAP数据库 本地安装了OpenLDAP数据库,只能在局域网内访问,怎样从外网也能访问本地OpenLDAP数据库? 本文将介绍具体的实现步骤. 1. 准备工作 1.1 安装并启动 ...

随机推荐

  1. 微信小程序如何导入字体图标

    前提:我们已经拥有了从阿里图标库下载下来的一系列的字体图标文件1:找个其中的ttf格式的文件,然后打开https://transfonter.org/网站2:点击Add fonts按钮,加载ttf格式 ...

  2. java.io.Serializable中serialVersionUID的作用

    把对象转换为字节序列的过程称为对象的序列化. 把字节序列恢复为对象的过程称为对象的反序列化. 对象的序列化主要有两种用途: 1) 把对象的字节序列永久地保存到硬盘上,通常存放在一个文件中: 2) 在网 ...

  3. 『MXNet』im2rec脚本使用以及数据读取

    一.im2rec用法简介 首先看文档: usage: im2rec.py [-h] [--list] [--exts EXTS [EXTS ...]] [--chunks CHUNKS] [--tra ...

  4. python-思路整理-虚拟环境

    虚拟环境: 如需多个版本的django或其他框架开发代码时,就可以用虚拟环境 pip3 install virtualenv # 创建虚拟环境 virtualenv virtualenv env1 # ...

  5. InnoDB存储引擎介绍-(5) Innodb逻辑存储结构

    如果创建表时没有显示的定义主键,mysql会按如下方式创建主键: 首先判断表中是否有非空的唯一索引,如果有,则该列为主键. 如果不符合上述条件,存储引擎会自动创建一个6字节大小的指针. 当表中有多个非 ...

  6. 在MongoDB中执行查询、创建索引

    1. MongoDB中数据查询的方法 (1)find函数的使用: (2)条件操作符: (3)distinct找出给定键所有不同的值: (4)group分组: (5)游标: (6)存储过程. 文档查找 ...

  7. vue购物车功能源码

    <!DOCTYPE html><html lang="en"> <head> <meta charset="UTF-8" ...

  8. html 中一些不常见的标签

    标签 描述 <b> 定义粗体文本. <big> 定义大号字. <em> 定义着重文字. <i> 定义斜体字. <small> 定义小号字. ...

  9. Django之cookie+session

    前言 HTTP协议 是短连接.且状态的,所以在客户端向服务端发起请求后,服务端在响应头 加入cokie响应给浏览器,以此记录客户端状态: cook是来自服务端,保存在浏览器的键值对,主要应用于用户登录 ...

  10. 从tcp的角度看,打开一个网页到底发生了什么

    使用wireshark进行抓包分析:新建表达式过滤器,选择协议,字段,匹配方式,应用就能筛选出想要的数据包. 一个示例:(tcp.srcport == 1523 or tcp.dstport == 1 ...