基于ThriftSource,MemoryChannel,HdfsSink三个组件,对Flume数据传输的事务进行分析,如果使用的是其他组件,Flume事务具体的处理方式将会不同。

Flume的事务处理原理:

Flume在对Channel进行Put和Take操作的时候,必须要用事物包住,比如:

  1. Channel ch = new MemoryChannel();
  2. Transaction txn = ch.getTransaction();
  3. //事物开始
  4. txn.begin();
  5. try {
  6. Event eventToStage = EventBuilder.withBody(\"Hello Flume!\",
  7. Charset.forName(\"UTF-8\"));
  8. //往临时缓冲区Put数据
  9. ch.put(eventToStage);
  10. //或者ch.take()
  11. //将这些数据提交到channel中
  12. txn.commit();
  13. } catch (Throwable t) {
  14. txn.rollback();
  15. if (t instanceof Error) {
  16. throw (Error)t;
  17. }
  18. } finally {
  19. txn.close();
  20. }
Put事务流程

Put事务可以分为以下阶段:

  • doPut:将批数据先写入临时缓冲区putList
  • doCommit:检查channel内存队列是否足够合并。
  • doRollback:channel内存队列空间不足,抛弃数据   (这个地方个人理解可能会存在数据丢失)

我们从Source数据接收到写入Channel这个过程对Put事物进行分析。

ThriftSource会spawn多个Worker线程(ThriftSourceHandler)去处理数据,Worker处理数据的接口,我们只看batch批量处理这个接口:

  1. @Override
  2. public Status appendBatch(List<ThriftFlumeEvent> events) throws TException {
  3. List<Event> flumeEvents = Lists.newArrayList();
  4. for(ThriftFlumeEvent event : events) {
  5. flumeEvents.add(EventBuilder.withBody(event.getBody(), event.getHeaders()));
  6. }
  7. //ChannelProcessor,在Source初始化的时候传进来.将数据写入对应的Channel
  8. getChannelProcessor().processEventBatch(flumeEvents);
  9. ...
  10. return Status.OK;
  11. }

事务逻辑都在processEventBatch这个方法里:

  1. public void processEventBatch(List<Event> events) {
  2. ...
  3. //预处理每行数据,有人用来做ETL嘛
  4. events = interceptorChain.intercept(events);
  5. ...
  6. //分类数据,划分不同的channel集合对应的数据
  7. // Process required channels
  8. Transaction tx = reqChannel.getTransaction();
  9. ...
  10. //事务开始,tx即MemoryTransaction类实例
  11. tx.begin();
  12. List<Event> batch = reqChannelQueue.get(reqChannel);
  13. for (Event event : batch) {
  14. // 这个put操作实际调用的是transaction.doPut
  15. reqChannel.put(event);
  16. }
  17. //提交,将数据写入Channel的队列中
  18. tx.commit();
  19. } catch (Throwable t) {
  20. //回滚
  21. tx.rollback();
  22. ...
  23. }
  24. }
  25. ...
  26. }

每个Worker线程都拥有一个Transaction实例,保存在Channel(BasicChannelSemantics)里的ThreadLocal变量currentTransaction.

那么,事务到底做了什么?

实际上,Transaction实例包含两个双向阻塞队列LinkedBlockingDeque(感觉没必要用双向队列,每个线程写自己的putList,又不是多个线程?),分别为:

  • putList
  • takeList

对于Put事物操作,当然是只用到putList了。putList就是一个临时的缓冲区,数据会先put到putList,最后由commit方法会检查channel是否有足够的缓冲区,有则合并到channel的队列。
channel.put -> transaction.doPut:

  1. protected void doPut(Event event) throws InterruptedException {
  2. //计算数据字节大小
  3. int eventByteSize = (int)Math.ceil(estimateEventSize(event)/byteCapacitySlotSize);
  4. //写入临时缓冲区putList
  5. if (!putList.offer(event)) {
  6. throw new ChannelException(
  7. \"Put queue for MemoryTransaction of capacity \" +
  8. putList.size() + \" full, consider committing more frequently, \" +
  9. \"increasing capacity or increasing thread count\");
  10. }
  11. putByteCounter += eventByteSize;
  12. }

transaction.commit:

  1. @Override
  2. protected void doCommit() throws InterruptedException {
  3. //检查channel的队列剩余大小是否足够
  4. ...
  5. int puts = putList.size();
  6. ...
  7. synchronized(queueLock) {
  8. if(puts > 0 ) {
  9. while(!putList.isEmpty()) {
  10. //写入到channel的队列
  11. if(!queue.offer(putList.removeFirst())) {
  12. throw new RuntimeException(\"Queue add failed, this shouldn\'t be able to happen\");
  13. }
  14. }
  15. }
  16. //清除临时队列
  17. putList.clear();
  18. ...
  19. }
  20. ...
  21. }

如果在事务期间出现异常,比如channel剩余空间不足,则rollback:

  1. @Override
  2. protected void doRollback() {
  3. ...
  4. //抛弃数据,没合并到channel的内存队列
  5. putList.clear();
  6. ...
  7. }

Take事务

Take事务分为以下阶段:

  • doTake:先将数据取到临时缓冲区takeList
  • 将数据发送到下一个节点
  • doCommit:如果数据全部发送成功,则清除临时缓冲区takeList
  • doRollback:数据发送过程中如果出现异常,rollback将临时缓冲区takeList中的数据归还给channel内存队列。

Sink其实是由SinkRunner线程调用Sink.process方法来了处理数据的。我们从HdfsEventSink的process方法说起,Sink类都有个process方法,用来处理传输数据的逻辑。:

  1. public Status process() throws EventDeliveryException {
  2. ...
  3. Transaction transaction = channel.getTransaction();
  4. ...
  5. //事务开始
  6. transaction.begin();
  7. ...
  8. for (txnEventCount = 0; txnEventCount < batchSize; txnEventCount++) {
  9. //take数据到临时缓冲区,实际调用的是transaction.doTake
  10. Event event = channel.take();
  11. if (event == null) {
  12. break;
  13. }
  14. ...
  15. //写数据到HDFS
  16. bucketWriter.append(event);
  17. ...
  18. // flush all pending buckets before committing the transaction
  19. for (BucketWriter bucketWriter : writers) {
  20. bucketWriter.flush();
  21. }
  22. //commit
  23. transaction.commit();
  24. ...
  25. } catch (IOException eIO) {
  26. transaction.rollback();
  27. ...
  28. } finally {
  29. transaction.close();
  30. }
  31. }

大致流程图:

接着看看channel.take,作用是将数据放到临时缓冲区,实际调用的是transaction.doTake:

  1. protected Event doTake() throws InterruptedException {
  2. ...
  3. //从channel内存队列取数据
  4. synchronized(queueLock) {
  5. event = queue.poll();
  6. }
  7. ...
  8. //将数据放到临时缓冲区
  9. takeList.put(event);
  10. ...
  11. return event;
  12. }

接着,HDFS写线程bucketWriter将take到的数据写到HDFS,如果批数据都写完了,则要commit了:

  1. protected void doCommit() throws InterruptedException {
  2. ...
  3. takeList.clear();
  4. ...
  5. }

很简单,其实就是清空takeList而已。如果bucketWriter在写数据到HDFS的时候出现异常,则要rollback:

  1. protected void doRollback() {
  2. int takes = takeList.size();
  3. //检查内存队列空间大小,是否足够takeList写回去
  4. synchronized(queueLock) {
  5. Preconditions.checkState(queue.remainingCapacity() >= takeList.size(), \"Not enough space in memory channel \" +
  6. \"queue to rollback takes. This should never happen, please report\");
  7. while(!takeList.isEmpty()) {
  8. queue.addFirst(takeList.removeLast());
  9. }
  10. ...
  11. }
  12. ...
  13. }

读完代码可见 

batchSize是针对Source和Sink提出的一个概念,它用来限制source和sink对event批量处理的。

即一次性你可以处理batchSize个event,这个一次性就是指在一个事务中。

这个参数值越大,每个事务提交的范围就越大,taskList的清空等操作次数会减少,因此性能肯定会提升,但是可能在出错时,回滚的返回也会变大。

接下来看一下 

内存通道中的内部类MemoryTransaction:

 private class MemoryTransaction extends BasicTransactionSemantics {
private LinkedBlockingDeque takeList;
private LinkedBlockingDeque putList;
private final ChannelCounter channelCounter;
private int putByteCounter = 0;
private int takeByteCounter = 0; public MemoryTransaction(int transCapacity, ChannelCounter counter) {
putList = new LinkedBlockingDeque(transCapacity);
takeList = new LinkedBlockingDeque(transCapacity); channelCounter = counter;
}

可见transactionCapacity参数其实

就是putList和takeList的容量大小。在flume1.5版本中SpillableMemoryChannel的putList和takeList的长度为largestTakeTxSize和largestPutTxSize参数,该参数值为5000

理解FlumeNG的batchSize和transactionCapacity参数和传输事务的原理 【转】的更多相关文章

  1. (转)理解YOLOv2训练过程中输出参数含义

    最近有人问起在YOLOv2训练过程中输出在终端的不同的参数分别代表什么含义,如何去理解这些参数?本篇文章中我将尝试着去回答这个有趣的问题. 刚好现在我正在训练一个YOLOv2模型,拿这个真实的例子来讨 ...

  2. 理解YOLOv2训练过程中输出参数含义

    原英文地址: https://timebutt.github.io/static/understanding-yolov2-training-output/ 最近有人问起在YOLOv2训练过程中输出在 ...

  3. 通俗的讲法理解spring的事务实现原理

    拿房屋买卖举例,流程:销售房屋 -- 接待员 -- 销售员 -- 财务 售楼处 存放着所有待售和已售的房屋数据(数据源 datasource) 总经理 带领一套自己的班底,下属员工都听自己的,服务于售 ...

  4. ibatis源码学习4_参数和结果的映射原理

    问题在详细介绍ibatis参数和结果映射原理之前,让我们先来思考几个问题.1. 为什么需要参数和结果的映射?相对于全自动的orm,ibatis一个重要目标是,通过维护POJO与SQL之间的映射关系,让 ...

  5. 曹工说Redis源码(4)-- 通过redis server源码来理解 listen 函数中的 backlog 参数

    文章导航 Redis源码系列的初衷,是帮助我们更好地理解Redis,更懂Redis,而怎么才能懂,光看是不够的,建议跟着下面的这一篇,把环境搭建起来,后续可以自己阅读源码,或者跟着我这边一起阅读.由于 ...

  6. 深入理解JVM(三)——配置参数

    JVM配置参数分为三类参数: 1.跟踪参数 2.堆分配参数 3.栈分配参数 这三类参数分别用于跟踪监控JVM状态,分配堆内存以及分配栈内存. 跟踪参数 跟踪参数用于跟踪监控JVM,往往被开发人员用于J ...

  7. 如何理解CUDA中的cudaMalloc()的参数

    首先看下此运行时函数的原型: cudaError_t cudaMalloc (void **devPtr, size_t size ); 主要的第一个参数.为什么是两个星星呢?用个例子来说明下. fl ...

  8. 深入理解Java虚拟机,gc输出参数

    https://blog.csdn.net/qq_21383435/article/details/80702205

  9. 理解Linux系统负荷(WDCP系统后台参数之一)

    一.查看系统负荷 如果你的网站很卡,可能是因为服务器很慢,,你或许想查看一下,它的工作量是否太大了. 在Linux系统中,我们一般使用uptime命令查看(w命令和top命令也行).(另外,它们在苹果 ...

随机推荐

  1. iteye-Spring的缺点有哪些

    http://www.iteye.com/topic/1126929 1. flounders --  发表时间:2012-09-25    如题,希望大侠们指出,不能用Spring就觉得他什么都好, ...

  2. iOS 适用于Pad上的菜单弹出界面-最简单的一种实现记录

    前言: 此种方式实现只适用于pad开发,在iPhone上是无效的. 实现: 比如我在界面上有一个按钮,点击按钮,在按钮旁边弹出一个Pop框. 1.按钮点击事件 btn.addTarget(self, ...

  3. <转>浅谈 Boost.Asio 的多线程模型

    本文转自:http://senlinzhan.github.io/2017/09/17/boost-asio/ Boost.Asio 有两种支持多线程的方式,第一种方式比较简单:在多线程的场景下,每个 ...

  4. javascript 基础知识学习1

    JavaScript 是脚本语言.浏览器会在读取代码时,逐行地执行脚本代码.而对于传统编程来说,会在执行前对所有代码进行编译.基础知识:1).JavaScript 对大小写敏感.JavaScript ...

  5. 配置Hadoop1.2.1

    1.从Apache官网上下载1.2.1,地址:http://apache.dataguru.cn/hadoop/common/2.拷贝文件到虚拟机下(vm9下直接拖拽就可以)3.到Hadoop的目录下 ...

  6. Java and C# Comparison

    原文:http://www.harding.edu/fmccown/java_csharp_comparison.html Java Program Structure C# package hell ...

  7. Cal Cat for Mac(猫咪控日历工具)安装

    1.软件简介    Cal Cat 是 macOS 系统上一款猫咪控日历工具,可以将系统内置的日历工具美化成猫咪风格的日历,超级可爱的猫咪可是猫咪控的最爱了,喜欢的朋友快快用上吧. 加州猫是一个桌面集 ...

  8. 【struts2】Struts2的异常处理

    在Action中execute方法声明为:public String execute() throws Exception,这样,Action可以抛出任何Exception. 1)自己实现异常处理 我 ...

  9. Android Notification 的声音和震动

    我们在Android系统发送一条Notification的时候,经常需要通过震动或声音来提醒用户.如何为Notification设置声音和震动了.大致思路有: - AndroidNotificatio ...

  10. 【LeetCode-面试算法经典-Java实现】【059-Spiral Matrix II(螺旋矩阵II)】

    [059-Spiral Matrix II(螺旋矩阵II)] [LeetCode-面试算法经典-Java实现][全部题目文件夹索引] 原题 Given an integer n, generate a ...