1.Event
  
  event是flume传输的最小对象,从source获取数据后会先封装成event,然后将event发送到channel,sink从channel拿event消费。
  
  event由头headers和身体(body)两部分组成:Headers部分是一个map,body部分可以是String或者byte[]等。其中body部分是真正存放数据的地方,headers部分用于本节所讲的interceptor。
  
  2.Source
  
  自定义Source,自定义的Event需要继承PollableSource (轮训拉取)或者EventDrivenSource (事件驱动),另外还需要实现Configurable接口。
  
  PollableSource或者EventDrivenSource的区别在于:PollableSource是通过线程不断去调用process方法,主动拉取消息,而EventDrivenSource是需要触发一个调用机制,即被动等待。 Configurable接口:便于项目中初始化某些配置用的。
  
  Event:
  
  event是flume传输的最小对象,从source获取数据后会先封装成event,然后将event发送到channel,sink从channel拿event消费。
  
  2.1CustomSource.java
  
  public class CustomSource extends AbstractSource implements Configurable,PollableSource{
  
  @Override
  
  public long getBackOffSleepIncrement() {
  
  // TODO Auto-generated method stub
  
  return 0;
  
  }
  
  @Override
  
  public long getMaxBackOffSleepInterval() {
  
  // TODO Auto-generated method stub
  
  return 0;
  
  }
  
  @Override
  
  public Status process() throws EventDeliveryException {
  
  Random random = new Random();
  
  int randomNum = random.nextInt(100);
  
  String text = "Hello world" + random.nextInt(100);
  
  HashMap<String, String> header = new HashMap<String,String>();
  
  header.put("id",Integer.toString(randomNum));
  
  this.getChannelProcessor()
  
  .processEvent(EventBuilder.withBody(text,Charset.forName("UTF-8"),header));
  
  return Status.READY;
  
  }
  
  @Override
  
  public void configure(Context arg0) {
  
  2.2Flume 编写配置文件:
  
  # 指定Agent的组件名称
  
  a1.sources = r1
  
  a1.sinks = k1
  
  a1.channels = c1
  
  # 指定Flume source(要监听的路径)
  
  a1.sources.r1.type = com.harderxin.flume.test.MySource
  
  # 指定Flume sink
  
  a1.sinks.k1.type = file_roll
  
  # sink的输出目录,根据自己情况定义
  
  a1.sinks.k1.sink.directory = www.jyyL157.com /home/hadoop/sinkFolder
  
  # 指定Flume channel
  
  a1.channels.c1.type = memory
  
  a1.channels.c1.capacity = 1000
  
  a1.channels.c1.transactionCapacity = 100
  
  a1.channels.c1.byteCapacityBufferPercentage = 20
  
  a1.channels.c1.byteCapacity = 800000
  
  # 绑定source和sink到channel上
  
  a1.sources.r1.channels = c1
  
  2.3打jar包运行:
  
  将项目打成jar包(可以只打程所在的类),放入flume下的 lib目录下(网上说是bin目录,但没有运行成功)。
  
  然后bin目录下执行:
  
  flume-ng agent -conf conf -conf-file ..www.dfgjpt.com /conf/custom_source.conf -name a1
  
  1
  
  3.Sink
  
  3.1CustomSink.java
  
  public class CustomSink extends AbstractSink implements Configurable{
  
  @Override
  
  public Status process() throws EventDeliveryException {
  
  Status status = Status.READY;
  
  Transaction trans = null;
  
  try {
  
  Channel channel = getChannel();
  
  trans = channel.getTransaction();
  
  trans.begin();
  
  for(int i= 0;i < 100 ;i++) {
  
  Event event = channel.take();
  
  if(event == null) {
  
  status = status.BACKOFF;
  
  break;
  
  }else {
  
  String body = new String(event.getBody());
  
  System.out.println(body);
  
  }
  
  }
  
  trans.commit();
  
  }catch (Exception e) {
  
  if(trans != null) {
  
  trans.commit();
  
  }
  
  e.printStackTrace(www.120xh.cn/);
  
  }finally {
  
  if(trans != null) {
  
  trans.close(chuangshi88.cn);
  
  }
  
  }
  
  return status;
  
  }
  
  @Override
  
  public void configure(Context arg0) {
  
  3.2custom_sink.conf
  
  a1.sources = r1
  
  a1.sinks = k1
  
  a1.channels = c1
  
  # Describe/configure the source
  
  a1.sources.r1.type = netcat
  
  a1.sources.r1.bind = 0.0.0.0
  
  a1.sources.r1.port = 44444
  
  # Describe the sink
  
  a1.sinks.k1.type = com.caoxufeng.MyCustom.CustomSink
  
  # Use a channel which buffers events in memory
  
  a1.channels.c1.type = memory
  
  a1.channels.c1.capacity = 10000
  
  a1.channels.c1.transactionCapacity = 100
  
  # Bind the source and sink to the channel
  
  a1.sources.r1.channels = c1
  
  a1.sinks.k1.channel = c1
  
  3.3打jar包运行:
  
  将项目打成jar包(可以只打程所在的类),放入flume下的 lib目录下(网上说是bin目录,但没有运行成功)。
  
  然后bin目录下执行:
  
  flume-ng agent -conf conf -conf-file ../conf/custom_sink.conf -name a1
  
  1
  
  4.Interceptor
  
  用户Source读取events发送到Sink的时候,在events header中加入一些有用的信息,或者对events的内容进行过滤,完成初步的数据清洗。
  
  Fluem实现了日志的多来源自动抽取和多target的自动发送等功能。一直以来人们都是将数据清洗的过程放在Hadoop 的 MR的进行的。而自定义Interceptor可以让Flume进行数据清洗匹配,过滤到那些不规则的脏数据。
  
  Flume中拦截器的作用就是对于event中header的部分可以按需塞入一些属性,当然你如果想要处理event的body内容,也是可以的,但是event的body内容是系统下游阶段真正处理的内容,如果让Flume来修饰body的内容的话,那就是强耦合了,这就违背了当初使用Flume来解耦的初衷了。
  
  4.1CustomInterceptor.java
  
  public class CustomInterceptor implements Interceptor{
  
  private final String headerKey;
  
  private static final String CONF_HEADER_KEY = "header";
  
  private static final String DEFAULT_HEADER = "count";
  
  private final AtomicLong currentCount;
  
  public CustomInterceptor(Context www.wangcai157.com ctx) {
  
  headerKey = ctx.getString(CONF_HEADER_KEY,DEFAULT_HEADER);
  
  currentCount = new AtomicLong();
  
  }
  
  //运行前的初始化,一般不需要实现
  
  @Override
  
  public void initialize() {
  
  // TODO Auto-generated method stub
  
  }
  
  //)处理单个event
  
  @Override
  
  public Event intercept(Event event) {
  
  long count = currentCount.incrementAndGet();
  
  event.getHeaders(www.ylzx1980.com).put(headerKey, String.valueOf(count));
  
  return event;
  
  }
  
  //批量处理event,循环出路一面的interceptor(Event event)
  
  @Override
  
  public List<Event> intercept(List<Event> events) {
  
  for(Event e:events) {
  
  intercept(e);
  
  }
  
  return events;
  
  }
  
  @Override
  
  public void close() {
  
  }
  
  public static class CounterInterceptorBuilder implements Builder {
  
  private Context ctx;
  
  @Override
  
  public Interceptor build() {
  
  return new CustomInterceptor(ctx);
  
  }
  
  @Override
  
  public void configure(Context context) {
  
  this.ctx = context;
  
  方法intercept(Event www.caibaoyule.cn event)是具体执行解析的方法,将count自增1,然后写入到该条event的headers中。
  
  4.2custom_interceptor.conf
  
  a1.sources = r1
  
  a1.sinks = s1
  
  a1.channels = c1
  
  a1.sources.r1.type = netcat
  
  a1.sources.r1.bind = localhost
  
  a1.sources.r1.port = 44444
  
  a1.sources.r1.interceptors = i1
  
  a1.sources.r1.interceptors.i1.type = com.caoxufeng.MyCustom.CustomInterceptor$CounterInterceptorBuilder
  
  a1.sources.r1.interceptors.i1.perserveExisting = true
  
  a1.sinks.s1.type = logger
  
  a1.channels.c1.type = memory
  
  a1.channels.c1.capacity = 2
  
  a1.channels.c1.transactionCapacity = 2
  
  a1.sources.r1.channels = c1
  
  a1.sinks.s1.channel = c1
  
  4.3打jar包运行:
  
  将项目打成jar包(可以只打程所在的类),放入flume下的 lib目录下(网上说是bin目录,但没有运行成功)。
  
  然后bin目录下执行:
  
  flume-ng agent -c conf -f ../conf/custom-interceptor.conf -n a1

Flume自定义Source、Sink和Interceptor(简单功能实现)的更多相关文章

  1. flume自定义Source(taildirSource),自定义Sink(数据库),开发完整步骤

    一.flume简单了解推荐网站(简介包括简单案例部署): http://www.aboutyun.com/thread-8917-1-1.html 二.我的需求是实现从ftp目录下采集数据,目录下文件 ...

  2. 【翻译】Flink Table Api & SQL — 自定义 Source & Sink

    本文翻译自官网: User-defined Sources & Sinks  https://ci.apache.org/projects/flink/flink-docs-release-1 ...

  3. Hadoop生态圈-Flume的组件之自定义拦截器(interceptor)

    Hadoop生态圈-Flume的组件之自定义拦截器(interceptor) 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 本篇博客只是举例了一个自定义拦截器的方法,测试字节传输速 ...

  4. FLUME KAFKA SOURCE 和 SINK 使用同一个 TOPIC

    FLUME KAFKA SOURCE 和 SINK 使用同一个 TOPIC 最近做了一个事情,过滤下kakfa中的数据后,做这个就用到了flume,直接使用flume source 和 flume s ...

  5. Flink 自定义source和sink,获取kafka的key,输出指定key

    --------20190905更新------- 沙雕了,可以用  JSONKeyValueDeserializationSchema,接收ObjectNode的数据,如果有key,会放在Objec ...

  6. Flume:source和sink

    Flume – 初识flume.source和sink 目录基本概念常用源 Source常用sink 基本概念  什么叫flume? 分布式,可靠的大量日志收集.聚合和移动工具.  events ...

  7. Flume的Source、Sink总结,及常用使用场景

    数据源Source RPC异构流数据交换 Avro Source Thrift Source 文件或目录变化监听 Exec Source Spooling Directory Source Taild ...

  8. 4、flink自定义source、sink

    一.Source 代码地址:https://gitee.com/nltxwz_xxd/abc_bigdata 1.1.flink内置数据源 1.基于文件 env.readTextFile(" ...

  9. 一次flume exec source采集日志到kafka因为单条日志数据非常大同步失败的踩坑带来的思考

    本次遇到的问题描述,日志采集同步时,当单条日志(日志文件中一行日志)超过2M大小,数据无法采集同步到kafka,分析后,共踩到如下几个坑.1.flume采集时,通过shell+EXEC(tail -F ...

随机推荐

  1. 【MEF】构建一个WPF版的ERP系统

    原文:[MEF]构建一个WPF版的ERP系统 引言 MEF是微软的一个扩展性框架,遵循某种约定将各个部件组合起来.而ERP系统的一大特点是模块化,它们两者的相性很好,用MEF构建一个ERP系统是相当合 ...

  2. EZ 2018 04 21 NOIP2018 模拟赛(九)

    终于停止了掉Rating的浪潮! 猥琐的链接 这次200分才Rank10,而且很多人并列 庆幸T2最后20分钟发现期望的算法打错了,然后拿到了50pts,250收场 T1 水题*1 这道题不仅做过,而 ...

  3. 小兔博客新增源码下载模块,JavaWeb项目实战,JavaScript入门教程 ,JavaSE案例等

    从今以后,所有的源码在 http://www.xiaotublog.com/downloadView.html 都可以免费下载,在下载页面还可以直接链接到相关的教程地址(如果有教程的话...). 最近 ...

  4. Hadoop日记系列目录

    下面是Hadoop日记系列的目录,由于目前时间不是很充裕,以后的更新的速度会变慢,会按照一星期发布一期的原则进行,希望能和大家相互学习.交流. 目录安排 1>  Hadoop日记Day1---H ...

  5. cocos2d-x学习记录5——CCTransition场景过渡

    利用CCTransition能够创建出一系列的场景过渡动画,能够使场景切换时更加绚丽丰富. CCTransition派生出很多过渡动画,传入的参数一般包括过渡时间和创建的场景. MyScene.h内容 ...

  6. LOJ#6354. 「CodePlus 2018 4 月赛」最短路[最短路优化建图]

    题意 一个 \(n\) 个点的完全图,两点之间的边权为 \((i\ xor\ j)*C\) ,同时有 \(m\) 条额外单向路径,问从 \(S\) 到 \(T\) 的最短路. \(n\leq 10^5 ...

  7. 委托、多播委托(MulticastDelegate)

    委托.多播委托(MulticastDelegate) 多播委托(MulticastDelegate)继承自 Delegate ,表示多路广播委托:即,其调用列表中可以拥有多个元素的委托.实际上,我们自 ...

  8. 微软职位内部推荐-Senior Dev Lead - SharePoint

    微软近期Open的职位: SharePoint is a multi-billion dollar enterprise business that has grown from an on-prem ...

  9. LeetCode 463. Island Perimeter岛屿的周长 (C++)

    题目: You are given a map in form of a two-dimensional integer grid where 1 represents land and 0 repr ...

  10. 互评Final版本——二次元梦之队——“I Do”

    基于NABCD评论作品,及改进建议 1.根据(不限于)NABCD评论作品的选题; (1)N(Need,需求) 当今的许多科技大佬从少年时代就已经开始了自己的编程生涯,我国许多人也意识到了拥有编程能力的 ...