Flume Source 实例

  1. Avro Source

    监听avro端口,接收外部avro客户端数据流。跟前面的agent的Avro Sink可以组成多层拓扑结构。

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    a1.sources=s1
    a1.sinks=k1
    a1.channels=c1
       
    a1.sources.s1.channels=c1
    a1.sinks.k1.channel=c1
       
    a1.sources.s1.type=avro
    a1.sources.s1.bind=vm1
    a1.sources.s1.port=41414
       
    a1.sinks.k1.type=logger
       
    a1.channels.c1.type=memory
    a1.channels.c1.capacity=1000
    a1.channels.c1.transactionCapacity=100

    启动命令:

    1
    flume-ng agent --conf conf/ --conf-file conf/a1.conf --name a1 -Dflume.root.logger=INFO,console

    测试方法:

    1
    flume-ng avro-client --host vm1 --port 41414 --filename a.log
  2. Exec Source

    启动source的时候执行unix命令,并期望不断获取数据,比如tail -f命令。

    Exec Source有可能会丢失数据,可以考虑使用Spooling Dircetory Source。

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    a1.sources=s1
    a1.sinks=k1
    a1.channels=c1
       
    a1.sources.s1.channels=c1
    a1.sinks.k1.channel=c1
       
    a1.sources.s1.type=exec
    a1.sources.s1.command= tail -f /home/flume/a.log
       
    a1.sinks.k1.type=logger
       
    a1.channels.c1.type=memory
    a1.channels.c1.capacity=1000
    a1.channels.c1.transactionCapacity=100

    执行命令:

    1
    flume-ng agent --conf conf/ --conf-file conf/a1.conf --name a1 -Dflume.root.logger=INFO,console

    测试方法:

    向unix命令监听的文件追加内容,

    1
    echo 'hello, everyone!' >> a.log
  3. Spooling Directory Source

    监控某个文件夹,将新产生的文件解析成event,解析方式是可插拔的,默认是LINE,将新文件中的每行数据转换成一个event。文件解析完成后,该文件名字被追加.completed。

    Spooling Dircetory Source相对于Exec Source更可靠,它不会丢失数据(甚至被重启或杀死)。为了这种特性,只能是不可修改的、名字不重复的文件才可使用这个source:

    1)监控文件夹内的文件被flume使用后不能进行修改。

    2)文件名字不能重复,如果已经存在了xx.completed,不能在放入名字叫xx的文件。否则报错,停止。

    3)被监控文件夹里的子文件夹不处理

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    a1.sources=s1
    a1.sinks=k1
    a1.channels=c1
       
    a1.sources.s1.channels=c1
    a1.sinks.k1.channel=c1
       
    a1.sources.s1.type=spooldir
    a1.sources.s1.spoolDir=/home/flume/a
       
    a1.sinks.k1.type=logger
       
    a1.channels.c1.type=memory
    a1.channels.c1.capacity=1000
    a1.channels.c1.transactionCapacity=100

    启动命令:

    1
    flume-ng agent --conf conf/ --conf-file conf/a1.conf --name a1 -Dflume.root.logger=INFO,console

    测试方法:

    向/home/flume/a文件夹内放入文件。

  4. Netcat Source

    监听端口数据。类似于nc -k -l [host] [port]命令.

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    a1.sources=s1
    a1.sinks=k1
    a1.channels=c1
       
    a1.sources.s1.channels=c1
    a1.sinks.k1.channel=c1
       
    a1.sources.s1.type=netcat
    a1.sources.s1.bind=localhost
    a1.sources.s1.port=41414
       
    a1.sinks.k1.type=logger
       
    a1.channels.c1.type=memory
    a1.channels.c1.capacity=1000
    a1.channels.c1.transactionCapacity=100

    启动命令:

    1
    flume-ng agent --conf conf/ --conf-file conf/a1.conf --name a1 -Dflume.root.logger=INFO,console

    测试方式:

    1
    telnet localhost 41414
  5. Sequence Generator Source

    不断生成从0开始的数字,主要用于测试

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    a1.sources=s1
    a1.sinks=k1
    a1.channels=c1
       
    a1.sources.s1.channels=c1
    a1.sinks.k1.channel=c1
       
    a1.sources.s1.type=seq
       
    a1.sinks.k1.type=logger
       
    a1.channels.c1.type=memory
    a1.channels.c1.capacity=1000
    a1.channels.c1.transactionCapacity=100

    启动命令:

    1
    flume-ng agent --conf conf/ --conf-file conf/a1.conf --name a1 -Dflume.root.logger=INFO,console
  6. Syslog Source

    读取syslog数据,它分为:Syslog TCP Source、Multiport Syslog TCP Source、Syslog UDP Source

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    a1.sources=s1
    a1.sinks=k1
    a1.channels=c1
       
    a1.sources.s1.channels=c1
    a1.sinks.k1.channel=c1
       
    a1.sources.s1.type=syslogtcp
    a1.sources.s1.host=localhost
    a1.sources.s1.port=41414
       
    a1.sinks.k1.type=logger
       
    a1.channels.c1.type=memory
    a1.channels.c1.capacity=1000
    a1.channels.c1.transactionCapacity=100

    启动命令:

    1
    flume-ng agent --conf conf/ --conf-file conf/a1.conf --name a1 -Dflume.root.logger=INFO,console

    测试方法:

    需要syslog服务

  7. Http Source

    通过Http获取event,可以是GET、POST方式,GET方式应该在测试时使用。一个HTTP Request被handler解析成若干个event,这组event在一个事务里。

    如果handler抛异常,http状态是400;如果channel满了,http状态是503。

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    a1.sources=s1
    a1.sinks=k1
    a1.channels=c1
       
    a1.sources.s1.channels=c1
    a1.sinks.k1.channel=c1
       
    a1.sources.s1.type=http
    a1.sources.s1.port=41414
       
    a1.sinks.k1.type=logger
       
    a1.channels.c1.type=memory
    a1.channels.c1.capacity=1000
    a1.channels.c1.transactionCapacity=100

    启动命令:

    1
    flume-ng agent --conf conf/ --conf-file conf/a1.conf --name a1 -Dflume.root.logger=INFO,console

    测试方法:

    1
    curl -XPOST http://vm1:41414 -d '[{"headers" : {"timestamp" : "434324343","host" : "random_host.example.com"},"body" : "random_body"},{"headers" : {"namenode" : "namenode.example.com","datanode" : "random_datanode.example.com"},"body" : "really_random_body"}]'

    参数的格式是:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    [{
        "headers" : {
             "timestamp" : "434324343",
             "host" : "random_host.example.com"
        },
        "body" : "random_body"
    }, {
        "headers" : {
             "namenode" : "namenode.example.com",
             "datanode" : "random_datanode.example.com"
         },
        "body" : "really_random_body"
    }]

    Http Source Handler:

    Handler类型 说明
    JSONHandler 默认值,将文本输入的每行转换成一个event
    BlobHandler 读取avro文件,将其中的每条avro记录转换成一个event,每个event都附带着模式信息

Flume Source 实例的更多相关文章

  1. Flume source 支持的type类型

    Flume是一个分布式的高可用的消费组件.通过修改配置文件,可以启动不同的agent处理不同来源的数据. agent包含source,channel,sink三个组件.今天我们学习下source的ty ...

  2. flume-ng 自定义sink消费flume source

    如何从一个已经存在的Flume source消费数据 1.下载flume wget http://www.apache.org/dist/flume/stable/apache-flume-1.5.2 ...

  3. Flume Source官网剖析(博主推荐)

    不多说,直接上干货! 一切来源于flume官网 http://flume.apache.org/FlumeUserGuide.html Flume Sources Avro Source Thrift ...

  4. <Flume><Source Code><Flume源码阅读笔记>

    Overview source采集的日志首先会传入ChannelProcessor, 在其内首先会通过Interceptors进行过滤加工,然后通过ChannelSelector选择channel. ...

  5. 《OD大数据实战》Flume入门实例

    一.netcat source + memory channel + logger sink 1. 修改配置 1)修改$FLUME_HOME/conf下的flume-env.sh文件,修改内容如下 e ...

  6. flume+sparkStreaming实例 实时监控文件demo

    1,flume所在的节点不和spark同一个集群  v50和 10-15节点 flume在v50里面 flume-agent.conf spark是开的work节点,就是单点计算节点,不涉及到mast ...

  7. Flume(3)source组件之NetcatSource使用介绍

    一.概述: 本节首先提供一个基于netcat的source+channel(memory)+sink(logger)的数据传输过程.然后剖析一下NetcatSource中的代码执行逻辑. 二.flum ...

  8. Flume概述和简单实例

    Flume概述 Flume是一个分布式.可靠.和高可用的海量日志采集.聚合和传输的系统.支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方( ...

  9. flume组件汇总 source、sink、channel

    Flume Source Source类型 说明 Avro Source 支持Avro协议(实际上是Avro RPC),内置支持 Thrift Source 支持Thrift协议,内置支持 Exec  ...

随机推荐

  1. Spring Cloud Finchley 正式发布,包含 4 个重大更新!

    在 Spring 的官方博客上已经看到 Spring Cloud Finchley 在 06 月 19 日这一天正式发布了,我们在 Maven 中央仓库也看到了最新版的更新. Finchley 正式版 ...

  2. Docker部署Vue 工程包

    docker部署 Vue 工程包 目录结构 [root@host ~]# tree front/ front/ ├── dist.conf ├── dist.zip ├── Dockerfile └─ ...

  3. SQL SERVER 用sql语句将一列数据拼接成一个字符串

    执行 SELECT userid FROM userinfo   得到 1 2 3 4   如果要得到 1,2,3,4   执行方案 DECLARE @STR NVARCHAR(8000) SELEC ...

  4. 学生成绩管理系统3.0(JSP+Servlet+MySQL)

    源代码:戳这里! (2019-01-08 更新 惊讶于这么久了还有人看这个项目 于是把代码传到 github 了(辣鸡CSDN) https://github.com/G-lory/StudentAc ...

  5. 关于Python的import机制原理

    很多人用过python,不假思索地在脚本前面加上import module_name,但是关于import的原理和机制,恐怕没有多少人真正的理解.本文整理了Python的import机制,一方面自己总 ...

  6. [P4318] 完全平方数

    想不出什么办法能直接算的(别跟我提分块打表),不如二分答案吧:设\(f(x)=\sum_{i=1}^n [i不是"完全平方数"]\), 显然f(x)与x正相关.再结合筛法.容斥,不 ...

  7. Spring Cloud 微服务分布式链路跟踪 Sleuth 与 Zipkin

    Zipkin 是一个开放源代码分布式的跟踪系统,由 Twitter 公司开源,它致力于收集服务的定时数据,以解决微服务架构中的延迟问题,包括数据的收集.存储.查找和展现.它的理论模型来自于Google ...

  8. postgresql 表继承

    可以按如下语句创建表 CREATE TABLE capitals ( name text, population real, altitude int, -- (in ft) state ) ); C ...

  9. TCP/IP 笔记 - Internet协议

    IP是TCP/IP协议族中的核心协议,TCP.UDP.ICMP.IGMP数据都通过IP数据报传输.IP提供了一种"尽力而为.无连接"的数据交付服务:尽力而为表示不保证IP数据报能成 ...

  10. Unity3d中PureMVC框架的搭建及使用资料

    1.下载PureMVC框架 https://github.com/PureMVC/puremvc-csharp-multicore-framework https://github.com/PureM ...