Flume is a distributed, reliable, and available service for efficiently collecting, aggregating, and moving large amounts of log data. It has a simple and flexible architecture based on streaming data flows. It is robust and fault tolerant with tunable reliability mechanisms and many failover and recovery mechanisms. It uses a simple extensible data model that allows for online analytic application.

翻译:

Flume是一种分布式、可靠且可用的服务,用于高效地收集、聚合和移动大量日志数据。它具有基于流数据流的简单灵活的体系结构。它具有鲁棒性和容错性,具有可调的可靠性机制和许多故障转移和恢复机制。它使用一个简单的可扩展数据模型,允许在线分析应用程序。

web Server 端产生日志,Source到具体目录下获取日志文件,把日志Channel中,Sink写到HDFS上

Source → Channel  可以进行数据清洗

Channel → Sink      可以进行数据清洗

vent是Flume数据传输的基本单元
Flume以事件的形式将数据从源头传送到最终的目的
Event由可选的header和载有数据的一个byte array构成
     载有的数据对flume是不透明的
     Header是容纳了key-value字符串对的无序集合,key在集合内是唯 一的。
     Header可以在上下文路由中使用扩展

前提依赖:

* 运行在有log的地方

* 运行在LINUX

* JVM

解压:flume-ng-1.5.0-cdh5.3.6.tar.gz

mv apache-flume-1.5.0-cdh5.3.6-bin/  flume-1.5.0-cdh5.3.6

cd /home/hadoop/CDH5.3.6/flume-1.5.0-cdh5.3.6/conf

cp flume-env.sh.template  flume-env.sh

vi flume-env.sh

export JAVA_HOME=/usr/local/jdk1.
[hadoop@master flume-1.5.-cdh5.3.6]$ bin/flume-ng 

Usage: bin/flume-ng <command> [options]...

commands:
agent run a Flume agent
avro-client run an avro Flume client
version show Flume version info global options:
--conf,-c <conf> use configs in <conf> directory-Dproperty=value sets a Java system property value agent options:
--name,-n <name> the name of this agent (required)
--conf-file,-f <file> specify a config file (required if -z missing)

运行命令:

bin/flume-ng agent --conf conf --name agent-test --conf-file test.conf

bin/flume-ng agent -c conf  -n agent-test -f test.conf

配置一个a.conf

# The configuration file needs to define the sources,
# the channels and the sinks.
# Sources, channels and sinks are defined per agent,
# in this case called 'agent' ###define agent
a1.sources = r1
a1.channels = c1
a1.sinks = k1 ### define sources
a1.sources.r1.type = netcat
a1.sources.r1.bind = master
a1.sources.r1.port = ### define channel
a1.channels.c1.type = memory
a1.channels.c1.capacity =
a1.channels.c1.transactionCapacity = ### define sink
a1.sinks.k1.type=logger
a1.sinks.k1.maxBytyesToLog = ### bind the source and sinks to the channel
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1

安装 xinetd

[root@master telnet]# ll
total 224
----rwxr-x. 1 hadoop hadoop 59120 Jun 22 23:49 telnet-0.17-47.el6_3.1.x86_64.rpm
----rwxr-x. 1 hadoop hadoop 37748 Jun 22 23:49 telnet-server-0.17-47.el6_3.1.x86_64.rpm
----rwxr-x. 1 hadoop hadoop 124280 Jun 22 23:49 xinetd-2.3.14-38.el6.x86_64.rpm
[root@master telnet]# rpm -ivh *.rpm
warning: telnet-0.17-47.el6_3.1.x86_64.rpm: Header V3 RSA/SHA1 Signature, key ID c105b9de: NOKEY
Preparing... ########################################### [100%]
1:xinetd ########################################### [ 33%]
2:telnet-server ########################################### [ 67%]
3:telnet ########################################### [100%]
[root@master telnet]#

启动服务:

[root@master telnet]# /etc/rc.d/init.d/xinetd  restart
Stopping xinetd: [FAILED]
Starting xinetd: [ OK ]
[root@master telnet]#

运行命令:

bin/flume-ng agent -c conf -n a1 -f conf/a.conf -D flume.root.logger=DEBUG,consol

查看端口:

[root@master flume-1.5.0-cdh5.3.6]# netstat -tnlp
Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program name
tcp 0 0 192.168.1.30:19888 0.0.0.0:* LISTEN 3735/java
tcp 0 0 0.0.0.0:10033 0.0.0.0:* LISTEN 3735/java
tcp 0 0 0.0.0.0:50070 0.0.0.0:* LISTEN 2715/java
tcp 0 0 0.0.0.0:22 0.0.0.0:* LISTEN 1924/sshd
tcp 0 0 127.0.0.1:631 0.0.0.0:* LISTEN 1685/cupsd
tcp 0 0 127.0.0.1:25 0.0.0.0:* LISTEN 2299/master
tcp 0 0 0.0.0.0:50010 0.0.0.0:* LISTEN 2815/java
tcp 0 0 0.0.0.0:50075 0.0.0.0:* LISTEN 2815/java
tcp 0 0 192.168.1.30:10020 0.0.0.0:* LISTEN 3735/java
tcp 0 0 0.0.0.0:50020 0.0.0.0:* LISTEN 2815/java
tcp 0 0 192.168.1.30:9000 0.0.0.0:* LISTEN 2715/java
tcp 0 0 192.168.1.30:50090 0.0.0.0:* LISTEN 2990/java
tcp 0 0 :::22 :::* LISTEN 1924/sshd
tcp 0 0 ::1:631 :::* LISTEN 1685/cupsd
tcp 0 0 ::1:25 :::* LISTEN 2299/master
tcp 0 0 ::ffff:192.168.1.30:44444 :::* LISTEN 17488/java
tcp 0 0 :::3306 :::* LISTEN 2152/mysqld

运行命令:bin/flume-ng agent -c conf -n a1 -f conf/a.conf -Dflume.root.logger=DEBUG,console

在另一个控制台

[hadoop@master ~]$ telnet master 44444
Trying 192.168.1.30...
Connected to master.
Escape character is '^]'.
hello flume
OK
hello world
OK

在控制台的运行命令下,会出现:

CHD-5.3.6集群上Flume安装的更多相关文章

  1. CHD-5.3.6集群上Flume的文件监控

    收集hive的log     hive的运行日志:    /home/hadoop/CDH5.3.6/hive-0.13.1-cdh5.3.6/log/hive.log * memory *hdfs  ...

  2. CHD-5.3.6集群上oozie安装

    参考文档:http://archive.cloudera.com/cdh5/cdh/5/oozie-4.0.0-cdh5.3.6/DG_QuickStart.html tar -zxvf  oozie ...

  3. CHD-5.3.6集群上sqoop安装

    Sqoop(发音:skup)是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql.postgresql...)间进行数据的传递,可以将一个关系型数据库(例如 : MySQL ...

  4. CHD-5.3.6集群上hive安装

    解压过后: [hadoop@master CDH5.3.6]$ ls -rlttotal 8drwxr-xr-x. 17 hadoop hadoop 4096 Jun  2 16:07 hadoop- ...

  5. hive1.2.1安装步骤(在hadoop2.6.4集群上)

    hive1.2.1在hadoop2.6.4集群上的安装 hive只需在一个节点上安装即可,这里再hadoop1上安装 1.上传hive安装包到/usr/local/目录下 2.解压 tar -zxvf ...

  6. 在Ubuntu16.04集群上手工部署Kubernetes

    目前Kubernetes为Ubuntu提供的kube-up脚本,不支持15.10以及16.04这两个使用systemd作为init系统的版本. 这里详细介绍一下如何以非Docker方式在Ubuntu1 ...

  7. 在集群上运行caffe程序时如何避免Out of Memory

    不少同学抱怨,在集群的GPU节点上运行caffe程序时,经常出现"Out of Memory"的情况.实际上,如果我们在提交caffe程序到某个GPU节点的同时,指定该节点某个比较 ...

  8. 分布式Hbase-0.98.4在Hadoop-2.2.0集群上的部署

    fesh个人实践,欢迎经验交流!本文Blog地址:http://www.cnblogs.com/fesh/p/3898991.html Hbase 是Apache Hadoop的数据库,能够对大数据提 ...

  9. Hadoop集群上使用JNI,调用资源文件

    hadoop是基于java的数据计算平台,引入第三方库,例如C语言实现的开发包将会大大增强数据分析的效率和能力. 通常在是用一些工具的时候都要用到一些配置文件.资源文件等.接下来,借一个例子来说明ha ...

随机推荐

  1. Qt编写自定义控件24-图片轮播控件

    一.前言 上一篇文章写的广告轮播控件,采用的传统widget堆积设置样式表做的,这次必须要用到更高级的QPainter来绘制了,这个才是最高效的办法,本控件参考雨田哥的轮播控件,经过大规模的改造而成, ...

  2. 无法登录到Windows云服务器怎么办?

    当您的云服务器无法远程登录时,我们首先建议您使用VNC方式登录. 是否可以通过控制台远程登录 远程登录失败时,请首先尝试能否通过管理控制台,使用VNC方式登录弹性云服务器. 登录管理控制台. 选择“计 ...

  3. redis管理工具rdm安装;另一个管理工具medis

    安装: brew cask install rdm 开源安装 http://docs.redisdesktop.com/en/latest/install/ 说明 直接从官网下载也可以,不过是收费的 ...

  4. Class WriteGroupAttribute

    [WriteGroup]可以排除在创建已声明写入同一组件的查询时未知的组件. 这允许安全地扩展组件系统而无需编辑先前存在的系统. 目标是为期望将数据从一组组件(输入)转换为另一组(输出[s])的系统能 ...

  5. [MSCOCO] Ubuntu16.04下使用 tylin/coco-caption 评价 MSCOCO Caption(配置,及Demo运行)

    Github链接:https://github.com/tylin/coco-caption Ubuntu版本信息 Linux内核版本号:Linux version 4.15.0-51-generic ...

  6. mysql的密码规则问题

    今天在设置mysql某用户的密码时,出现了此报错:   ERROR 1819 (HY000) Your password does not satisfy the current policy req ...

  7. Object类的equals方法 常用API

    boolean equals (Object obj)(return this==obj):  p1.equals(p2): 基本数据类型比较的是值      引用数据类型:默认比较的是两个对象的地址 ...

  8. nginx+uwsgi02---django部署(不推荐)

    1.文件结构 myweb/ ├── manage.py ├── myweb/ │ ├── __init__.py │ ├── settings.py │ ├── urls.py │ └── wsgi. ...

  9. 打印 request 请求中的参数

    @SuppressWarnings({"rawtypes"})private void showParams(HttpServletRequest request) { Map&l ...

  10. SQL SERVER导入EXCEL文件:无法创建链接服务器 "(null)" 的 OLE DB 访问接口 "Microsoft.Ace.OLEDB.12.0" 的实例。

    [方法一] --开启导入功能    exec sp_configure 'show advanced options',1    reconfigure    exec sp_configure 'A ...