Flume自定义Source、Sink和Interceptor(简单功能实现)
1.Event
event是flume传输的最小对象,从source获取数据后会先封装成event,然后将event发送到channel,sink从channel拿event消费。
event由头headers和身体(body)两部分组成:Headers部分是一个map,body部分可以是String或者byte[]等。其中body部分是真正存放数据的地方,headers部分用于本节所讲的interceptor。
2.Source
自定义Source,自定义的Event需要继承PollableSource (轮训拉取)或者EventDrivenSource (事件驱动),另外还需要实现Configurable接口。
PollableSource或者EventDrivenSource的区别在于:PollableSource是通过线程不断去调用process方法,主动拉取消息,而EventDrivenSource是需要触发一个调用机制,即被动等待。 Configurable接口:便于项目中初始化某些配置用的。
Event:
event是flume传输的最小对象,从source获取数据后会先封装成event,然后将event发送到channel,sink从channel拿event消费。
2.1CustomSource.java
public class CustomSource extends AbstractSource implements Configurable,PollableSource{
@Override
public long getBackOffSleepIncrement() {
// TODO Auto-generated method stub
return 0;
}
@Override
public long getMaxBackOffSleepInterval() {
// TODO Auto-generated method stub
return 0;
}
@Override
public Status process() throws EventDeliveryException {
Random random = new Random();
int randomNum = random.nextInt(100);
String text = "Hello world" + random.nextInt(100);
HashMap<String, String> header = new HashMap<String,String>();
header.put("id",Integer.toString(randomNum));
this.getChannelProcessor()
.processEvent(EventBuilder.withBody(text,Charset.forName("UTF-8"),header));
return Status.READY;
}
@Override
public void configure(Context arg0) {
2.2Flume 编写配置文件:
# 指定Agent的组件名称
a1.sources = r1
a1.sinks = k1
a1.channels = c1
# 指定Flume source(要监听的路径)
a1.sources.r1.type = com.harderxin.flume.test.MySource
# 指定Flume sink
a1.sinks.k1.type = file_roll
# sink的输出目录,根据自己情况定义
a1.sinks.k1.sink.directory = www.jyyL157.com /home/hadoop/sinkFolder
# 指定Flume channel
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100
a1.channels.c1.byteCapacityBufferPercentage = 20
a1.channels.c1.byteCapacity = 800000
# 绑定source和sink到channel上
a1.sources.r1.channels = c1
2.3打jar包运行:
将项目打成jar包(可以只打程所在的类),放入flume下的 lib目录下(网上说是bin目录,但没有运行成功)。
然后bin目录下执行:
flume-ng agent -conf conf -conf-file ..www.dfgjpt.com /conf/custom_source.conf -name a1
1
3.Sink
3.1CustomSink.java
public class CustomSink extends AbstractSink implements Configurable{
@Override
public Status process() throws EventDeliveryException {
Status status = Status.READY;
Transaction trans = null;
try {
Channel channel = getChannel();
trans = channel.getTransaction();
trans.begin();
for(int i= 0;i < 100 ;i++) {
Event event = channel.take();
if(event == null) {
status = status.BACKOFF;
break;
}else {
String body = new String(event.getBody());
System.out.println(body);
}
}
trans.commit();
}catch (Exception e) {
if(trans != null) {
trans.commit();
}
e.printStackTrace(www.120xh.cn/);
}finally {
if(trans != null) {
trans.close(chuangshi88.cn);
}
}
return status;
}
@Override
public void configure(Context arg0) {
3.2custom_sink.conf
a1.sources = r1
a1.sinks = k1
a1.channels = c1
# Describe/configure the source
a1.sources.r1.type = netcat
a1.sources.r1.bind = 0.0.0.0
a1.sources.r1.port = 44444
# Describe the sink
a1.sinks.k1.type = com.caoxufeng.MyCustom.CustomSink
# Use a channel which buffers events in memory
a1.channels.c1.type = memory
a1.channels.c1.capacity = 10000
a1.channels.c1.transactionCapacity = 100
# Bind the source and sink to the channel
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1
3.3打jar包运行:
将项目打成jar包(可以只打程所在的类),放入flume下的 lib目录下(网上说是bin目录,但没有运行成功)。
然后bin目录下执行:
flume-ng agent -conf conf -conf-file ../conf/custom_sink.conf -name a1
1
4.Interceptor
用户Source读取events发送到Sink的时候,在events header中加入一些有用的信息,或者对events的内容进行过滤,完成初步的数据清洗。
Fluem实现了日志的多来源自动抽取和多target的自动发送等功能。一直以来人们都是将数据清洗的过程放在Hadoop 的 MR的进行的。而自定义Interceptor可以让Flume进行数据清洗匹配,过滤到那些不规则的脏数据。
Flume中拦截器的作用就是对于event中header的部分可以按需塞入一些属性,当然你如果想要处理event的body内容,也是可以的,但是event的body内容是系统下游阶段真正处理的内容,如果让Flume来修饰body的内容的话,那就是强耦合了,这就违背了当初使用Flume来解耦的初衷了。
4.1CustomInterceptor.java
public class CustomInterceptor implements Interceptor{
private final String headerKey;
private static final String CONF_HEADER_KEY = "header";
private static final String DEFAULT_HEADER = "count";
private final AtomicLong currentCount;
public CustomInterceptor(Context www.wangcai157.com ctx) {
headerKey = ctx.getString(CONF_HEADER_KEY,DEFAULT_HEADER);
currentCount = new AtomicLong();
}
//运行前的初始化,一般不需要实现
@Override
public void initialize() {
// TODO Auto-generated method stub
}
//)处理单个event
@Override
public Event intercept(Event event) {
long count = currentCount.incrementAndGet();
event.getHeaders(www.ylzx1980.com).put(headerKey, String.valueOf(count));
return event;
}
//批量处理event,循环出路一面的interceptor(Event event)
@Override
public List<Event> intercept(List<Event> events) {
for(Event e:events) {
intercept(e);
}
return events;
}
@Override
public void close() {
}
public static class CounterInterceptorBuilder implements Builder {
private Context ctx;
@Override
public Interceptor build() {
return new CustomInterceptor(ctx);
}
@Override
public void configure(Context context) {
this.ctx = context;
方法intercept(Event www.caibaoyule.cn event)是具体执行解析的方法,将count自增1,然后写入到该条event的headers中。
4.2custom_interceptor.conf
a1.sources = r1
a1.sinks = s1
a1.channels = c1
a1.sources.r1.type = netcat
a1.sources.r1.bind = localhost
a1.sources.r1.port = 44444
a1.sources.r1.interceptors = i1
a1.sources.r1.interceptors.i1.type = com.caoxufeng.MyCustom.CustomInterceptor$CounterInterceptorBuilder
a1.sources.r1.interceptors.i1.perserveExisting = true
a1.sinks.s1.type = logger
a1.channels.c1.type = memory
a1.channels.c1.capacity = 2
a1.channels.c1.transactionCapacity = 2
a1.sources.r1.channels = c1
a1.sinks.s1.channel = c1
4.3打jar包运行:
将项目打成jar包(可以只打程所在的类),放入flume下的 lib目录下(网上说是bin目录,但没有运行成功)。
然后bin目录下执行:
flume-ng agent -c conf -f ../conf/custom-interceptor.conf -n a1
Flume自定义Source、Sink和Interceptor(简单功能实现)的更多相关文章
- flume自定义Source(taildirSource),自定义Sink(数据库),开发完整步骤
一.flume简单了解推荐网站(简介包括简单案例部署): http://www.aboutyun.com/thread-8917-1-1.html 二.我的需求是实现从ftp目录下采集数据,目录下文件 ...
- 【翻译】Flink Table Api & SQL — 自定义 Source & Sink
本文翻译自官网: User-defined Sources & Sinks https://ci.apache.org/projects/flink/flink-docs-release-1 ...
- Hadoop生态圈-Flume的组件之自定义拦截器(interceptor)
Hadoop生态圈-Flume的组件之自定义拦截器(interceptor) 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 本篇博客只是举例了一个自定义拦截器的方法,测试字节传输速 ...
- FLUME KAFKA SOURCE 和 SINK 使用同一个 TOPIC
FLUME KAFKA SOURCE 和 SINK 使用同一个 TOPIC 最近做了一个事情,过滤下kakfa中的数据后,做这个就用到了flume,直接使用flume source 和 flume s ...
- Flink 自定义source和sink,获取kafka的key,输出指定key
--------20190905更新------- 沙雕了,可以用 JSONKeyValueDeserializationSchema,接收ObjectNode的数据,如果有key,会放在Objec ...
- Flume:source和sink
Flume – 初识flume.source和sink 目录基本概念常用源 Source常用sink 基本概念 什么叫flume? 分布式,可靠的大量日志收集.聚合和移动工具. events ...
- Flume的Source、Sink总结,及常用使用场景
数据源Source RPC异构流数据交换 Avro Source Thrift Source 文件或目录变化监听 Exec Source Spooling Directory Source Taild ...
- 4、flink自定义source、sink
一.Source 代码地址:https://gitee.com/nltxwz_xxd/abc_bigdata 1.1.flink内置数据源 1.基于文件 env.readTextFile(" ...
- 一次flume exec source采集日志到kafka因为单条日志数据非常大同步失败的踩坑带来的思考
本次遇到的问题描述,日志采集同步时,当单条日志(日志文件中一行日志)超过2M大小,数据无法采集同步到kafka,分析后,共踩到如下几个坑.1.flume采集时,通过shell+EXEC(tail -F ...
随机推荐
- 20155302《网络对抗》Exp5 MSF基础应用
20155302<网络对抗>Exp5 MSF基础应用 实验内容 本实践目标是掌握metasploit的基本应用方式,重点常用的三种攻击方式的思路.具体需要完成: 1.1一个主动攻击实践,如 ...
- AT24C02跨页写数据
AT24C02 EEPROM的写数据分为:字节写数据模式和页写数据模式:字节写就是一个地址一个数据的写,页写是连续写数据,一个地址多个数据的写,但是页写不能自动跨页,如果超出一页长度,超出的数据会覆盖 ...
- tkinter 弹出窗口 传值回到 主窗口
有些时候,我们需要使用弹出窗口,对程序的运行参数进行设置.有两种选择 一.标准窗口 如果只对一个参数进行设置(或者说从弹出窗口取回一个值),那么可以使用simpledialog,导入方法: from ...
- 双面间谍(spy)
双面间谍 链接 分析: 戳这 代码: #include<cstdio> #include<algorithm> #include<cstdio> #include& ...
- linux重启tomcat的shell脚本
基本思路: 先检查待重启的tomcat的进程是否存在 存在则执行shutdown. 然后再次检查进程是否还存在,不存在则执行kill 然后删除工作空间及10天前的日志. 最后执行启动. #!/bin/ ...
- 没有任何秘密的 API:Vulkan* 简介
Vulkan 被视作是 OpenGL 的后续产品. 它是一种多平台 API,可支持开发人员准备游戏.CAD 工具.性能基准测试等高性能图形应用. 它可在不同的操作系统(比如 Windows*.Linu ...
- 关于几个vcenter的合并心得!
由于最近公司领导觉得公司几个vcenter管理的不同网段IP,办公的时候操作不方便,故本人把几个vcenter上面的esxi主机合并到一个里面! 通过几次测试,发现最简单的方法就是直接用一台vcent ...
- EOS开发基础之三:使用cleos命令行客户端操作EOS——关于钱包wallet和账户account
好了,上一节我们已经讲了关于wallet的一些基础操作,基本了解了怎么去创建一个钱包,怎么去查看钱包.上锁和解锁钱包等,这一节咱们就来开始操作账户account吧. 上一节讲到了每一个account都 ...
- petapoco 对存储过程的扩展 干货
好久没发表文章了.心血来潮,简单的介绍下这次工作中的问题. 项目中运用了Petapoco,可是petapoco对存储过程的支持不够好.或者说对于某些特殊场景,petapoco的sql支持度有限. 比如 ...
- Notes of Daily Scrum Meeting(12.18)
前期落下的进度我们会在周六周日赶一下,在编译课程设计中期测试之后集中处理项目中的问题. 今天的任务总结如下: 团队成员 今日团队工作 陈少杰 调试后端连接的部分,寻找bug 王迪 测试搜索功能,修改b ...