Logstash 基础入门
原文地址:Logstash 基础入门
博客地址:http://www.extlight.com

一、前言
Logstash 是一个开源的数据收集引擎,它具有备实时数据传输能力。它可以统一过滤来自不同源的数据,并按照开发者的制定的规范输出到目的地。
顾名思义,Logstash 收集数据对象就是日志文件。由于日志文件来源多(如:系统日志、服务器 日志等),且内容杂乱,不便于人类进行观察。因此,我们可以使用 Logstash 对日志文件进行收集和统一过滤,变成可读性高的内容,方便开发者或运维人员观察,从而有效的分析系统/项目运行的性能,做好监控和预警的准备工作等。
二、安装
Logstash 依赖 JDK1.8 ,因此在安装之前请确保机器已经安装和配置好 JDK1.8。
- tar -zxvf logstash-5.6.3.tar.gz -C /usr
- cd logstash-5.6.3
三、组成结构
Logstash 通过管道进行运作,管道有两个必需的元素,输入和输出,还有一个可选的元素,过滤器。
输入插件从数据源获取数据,过滤器插件根据用户指定的数据格式修改数据,输出插件则将数据写入到目的地。如下图:

我们先来一个简单的案例:
- bin/logstash -e 'input { stdin { } } output { stdout {} }'
启动 Logstash 后,再键入 Hello World,结果如下:
- [root@localhost logstash-5.6.3]# bin/logstash -e 'input { stdin { } } output { stdout {} }'
- Sending Logstash's logs to /usr/logstash-5.6.3/logs which is now configured via log4j2.properties
- [2017-10-27T00:17:43,438][INFO ][logstash.modules.scaffold] Initializing module {:module_name=>"fb_apache", :directory=>"/usr/logstash-5.6.3/modules/fb_apache/configuration"}
- [2017-10-27T00:17:43,440][INFO ][logstash.modules.scaffold] Initializing module {:module_name=>"netflow", :directory=>"/usr/logstash-5.6.3/modules/netflow/configuration"}
- [2017-10-27T00:17:43,701][INFO ][logstash.pipeline ] Starting pipeline {"id"=>"main", "pipeline.workers"=>1, "pipeline.batch.size"=>125, "pipeline.batch.delay"=>5, "pipeline.max_inflight"=>125}
- [2017-10-27T00:17:43,744][INFO ][logstash.pipeline ] Pipeline main started
- The stdin plugin is now waiting for input:
- [2017-10-27T00:17:43,805][INFO ][logstash.agent ] Successfully started Logstash API endpoint {:port=>9600}
- Hello World
- 2017-10-27T07:17:51.034Z localhost.localdomain Hello World
Hello World(输入)经过 Logstash 管道(过滤)变成:2017-10-27T07:17:51.034Z localhost.localdomain Hello World (输出)。
在生产环境中,Logstash 的管道要复杂很多,可能需要配置多个输入、过滤器和输出插件。
因此,需要一个配置文件管理输入、过滤器和输出相关的配置。配置文件内容格式如下:
- # 输入
- input {
- ...
- }
- # 过滤器
- filter {
- ...
- }
- # 输出
- output {
- ...
- }
根据自己的需求在对应的位置配置 输入插件、过滤器插件、输出插件 和 编码解码插件 即可。
四、插件用法
在使用插件之前,我们先了解一个概念:事件。
Logstash 每读取一次数据的行为叫做事件。
在 Logstach 目录中创建一个配置文件,名为 logstash.conf(名字任意)。
4.1 输入插件
输入插件允许一个特定的事件源可以读取到 Logstash 管道中,配置在 input {} 中,且可以设置多个。
修改配置文件:
- input {
- # 从文件读取日志信息
- file {
- path => "/var/log/messages"
- type => "system"
- start_position => "beginning"
- }
- }
- # filter {
- #
- # }
- output {
- # 标准输出
- stdout { codec => rubydebug }
- }
其中,messages 为系统日志。
保存文件。键入:
- bin/logstash -f logstash.conf
在控制台结果如下:
- {
- "@version" => "1",
- "host" => "localhost.localdomain",
- "path" => "/var/log/messages",
- "@timestamp" => 2017-10-29T07:30:02.601Z,
- "message" => "Oct 29 00:30:01 localhost systemd: Starting Session 16 of user root.",
- "type" => "system"
- }
- ......
4.2 输出插件
输出插件将事件数据发送到特定的目的地,配置在 output {} 中,且可以设置多个。
修改配置文件:
- input {
- # 从文件读取日志信息
- file {
- path => "/var/log/error.log"
- type => "error"
- start_position => "beginning"
- }
- }
- # filter {
- #
- # }
- output {
- # 输出到 elasticsearch
- elasticsearch {
- hosts => ["192.168.2.41:9200"]
- index => "error-%{+YYYY.MM.dd}"
- }
- }
其中,error.log 的内容格式如下:
- 2017-08-04 13:57:30.378 [http-nio-8080-exec-1] ERROR c.g.a.global.ResponseResultAdvice -设备数据为空
- com.light.pay.common.exceptions.ValidationException: 设备数据为空
- at com.light.pay.common.validate.Check.isTrue(Check.java:31)
- at com.light.attendance.controllers.cloudApi.DevicePushController.deviceInfoPush(DevicePushController.java:44)
- at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
- at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
- at org.apache.tomcat.util.threads.TaskThread$WrappingRunnable.run(TaskThread.java:61)
- at java.lang.Thread.run(Thread.java:745)
- 2017-08-04 13:57:44.495 [http-nio-8080-exec-2] ERROR c.g.a.global.ResponseResultAdvice -Failed to invoke remote method: pushData, provider: dubbo://192.168.2.100:20880/com.light.attendance.api.DevicePushApi?application=salary-custom&default.check=false&default.timeout=30000&dubbo=2.8.4&interface=com.light.attendance.api.DevicePushApi&methods=getAllDevices,getDeviceById,pushData&organization=com.light.attendance&ow
- ......
配置文件中使用 elasticsearch 输出插件。输出的日志信息将被保存到 Elasticsearch 中,索引名称为 index 参数设置的格式。
如果读者不了解 Elasticsearch 基础内容,可以查看本站 《Elasticsearch 基础入门》 文章或自行百度进行知识的补缺。
保存文件。键入:
- bin/logstash -f logstash.conf
打开浏览器访问 http://192.168.2.41:9100 使用 head 插件查看 Elasticsearch 数据,结果如下图:

踩坑提醒:
file 输入插件默认使用 “\n” 判断日志中每行的边界位置。error.log 是笔者自己编辑的错误日志,之前由于在复制粘贴日志内容时,忘记在内容末尾换行,导致日志数据始终无法导入到 Elasticsearch 中。 在此,提醒各位读者这个关键点。
4.3 编码解码插件
编码解码插件本质是一种流过滤器,配合输入插件或输出插件使用。
从上图中,我们发现一个问题:Java 异常日志被拆分成单行事件记录到 Elasticsearch 中,这不符合开发者或运维人员的查看习惯。因此,我们需要对日志信息进行编码将多行事件转成单行事件记录起来。
我们需要配置 Multiline codec 插件,这个插件可以将多行日志信息合并成一行,作为一个事件处理。
Logstash 默认没有安装该插件,需要开发者自行安装。键入:
- bin/logstash-plugin install logstash-codec-multiline
修改配置文件:
- input {
- # 从文件读取日志信息
- file {
- path => "/var/log/error.log"
- type => "error"
- start_position => "beginning"
- # 使用 multiline 插件
- codec => multiline {
- # 通过正则表达式匹配,具体配置根据自身实际情况而定
- pattern => "^\d"
- negate => true
- what => "previous"
- }
- }
- }
- # filter {
- #
- # }
- output {
- # 输出到 elasticsearch
- elasticsearch {
- hosts => ["192.168.2.41:9200"]
- index => "error-%{+YYYY.MM.dd}"
- }
- }
保存文件。键入:
- bin/logstash -f logstash.conf
使用 head 插件查看 Elasticsearch 数据,结果如下图:

4.4 过滤器插件
过滤器插件位于 Logstash 管道的中间位置,对事件执行过滤处理,配置在 filter {},且可以配置多个。
本次测试使用 grok 插件演示,grok 插件用于过滤杂乱的内容,将其结构化,增加可读性。
安装:
- bin/logstash-plugin install logstash-filter-grok
修改配置文件:
- input {
- stdin {}
- }
- filter {
- grok {
- match => { "message" => "%{IP:client} %{WORD:method} %{URIPATHPARAM:request} %{NUMBER:bytes} %{NUMBER
- :duration}" }
- }
- }
- output {
- stdout {
- codec => "rubydebug"
- }
- }
保存文件。键入:
- bin/logstash -f logstash.conf
启动成功后,我们输入:
- 55.3.244.1 GET /index.html 15824 0.043
控制台返回:
- [root@localhost logstash-5.6.3]# bin/logstash -f logstash.conf
- Sending Logstash's logs to /root/logstash-5.6.3/logs which is now configured via log4j2.properties
- [2017-10-30T08:23:20,456][INFO ][logstash.modules.scaffold] Initializing module {:module_name=>"fb_apache", :directory=>"/root/logstash-5.6.3/modules/fb_apache/configuration"}
- [2017-10-30T08:23:20,459][INFO ][logstash.modules.scaffold] Initializing module {:module_name=>"netflow", :directory=>"/root/logstash-5.6.3/modules/netflow/configuration"}
- [2017-10-30T08:23:21,447][INFO ][logstash.pipeline ] Starting pipeline {"id"=>"main", "pipeline.workers"=>1, "pipeline.batch.size"=>125, "pipeline.batch.delay"=>5, "pipeline.max_inflight"=>125}
- The stdin plugin is now waiting for input:
- [2017-10-30T08:23:21,516][INFO ][logstash.pipeline ] Pipeline main started
- [2017-10-30T08:23:21,573][INFO ][logstash.agent ] Successfully started Logstash API endpoint {:port=>9600}
- 55.3.244.1 GET /index.html 15824 0.043
- {
- "duration" => "0.043",
- "request" => "/index.html",
- "@timestamp" => 2017-10-30T15:23:23.912Z,
- "method" => "GET",
- "bytes" => "15824",
- "@version" => "1",
- "host" => "localhost.localdomain",
- "client" => "55.3.244.1",
- "message" => "55.3.244.1 GET /index.html 15824 0.043"
- }
输入的内容被匹配到相应的名字中。
五、参考资料
- https://www.elastic.co/guide/en/logstash/current/index.html 官方文档
- 转自 https://www.cnblogs.com/moonlightL/p/7760512.html
Logstash 基础入门的更多相关文章
- ELKStack的基础入门和中文指南
一.ELKStack的中文指南 redhat系列配置repo源 rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch vi / ...
- Kibana 基础入门
原文地址:Kibana 基础入门 博客地址:http://www.extlight.com 一.前言 Kibana 是一个开源的分析和可视化平台,旨在与 Elasticsearch 合作.Kibana ...
- logstash快速入门 (这篇文章很不错 ) | 两种方式往logstash传输数据实例:Apache 日志(从文件获取)、Syslog方式
原文地址:http://www.2cto.com/os/201411/352015.html 原文地址:http://logstash.net/docs/1.4.2/tutorials/getting ...
- Elastic 技术栈之 Logstash 基础
title: Elastic 技术栈之 Logstash 基础 date: 2017-12-26 categories: javatool tags: java javatool log elasti ...
- logstash快速入门
转自 http://blog.csdn.net/wp500/article/details/41040213 原文地址:http://logstash.net/docs/1.4.2/tutorials ...
- ElasticSearch实战系列六: Logstash快速入门和实战
前言 本文主要介绍的是ELK日志系统中的Logstash快速入门和实战 ELK介绍 ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash, Kibana , 它们都是 ...
- js学习笔记:webpack基础入门(一)
之前听说过webpack,今天想正式的接触一下,先跟着webpack的官方用户指南走: 在这里有: 如何安装webpack 如何使用webpack 如何使用loader 如何使用webpack的开发者 ...
- 「译」JUnit 5 系列:基础入门
原文地址:http://blog.codefx.org/libraries/junit-5-basics/ 原文日期:25, Feb, 2016 译文首发:Linesh 的博客:JUnit 5 系列: ...
- .NET正则表达式基础入门
这是我第一次写的博客,个人觉得十分不容易.以前看别人写的博客文字十分流畅,到自己来写却发现十分困难,还是感谢那些为技术而奉献自己力量的人吧. 本教程编写之前,博主阅读了<正则指引>这本入门 ...
随机推荐
- Common-io,FileUtils工具类的使用
package Cristin.Common.File; import org.apache.commons.io.FileUtils; import org.apache.commons.io.fi ...
- ubuntu14.04 Keras框架搭建
>>>sudo su >>> pip3 install -U --pre pip setuptools wheel >>> pip3 instal ...
- Hadoop 学习路线
大数据实时计算工程师/Hadoop工程师/数据分析师职业路线图 描述 本路线图是一个专门针对大数据实时处理.Hadoop工程师和数据分析师所设计的课程体系介绍,在实时计算方向主要包括了从数据收集框架. ...
- python发送requests请求时,使用登录的token值,作为下一个接口的请求头信息
背景介绍: 发送搜索请求时,需要用到登录接口返回值中的token值 代码实现: 登录代码: 搜索接口:
- openmodelica警告及错误
Warning: The initial conditions are not fully specified. simulate(TCS.TCS,startTime=0,stopTime=200.0 ...
- 学习笔记13—python DataFrame获取行数、列数、索引及第几行第几列的值
1. df=DataFrame([{‘A’:’11’,’B’:’12’},{‘A’:’111’,’B’:’121’},{‘A’:’1111’,’B’:’1211’}]) print df.column ...
- 学习笔记9—python数据表的合并(join(), merge()和concat())
merage# pandas提供了一个类似于关系数据库的连接(join)操作的方法<Strong>merage</Strong>,可以根据一个或多个键将不同DataFrame中 ...
- 认识flask框架-2
1.json:基于键值对的字符串,轻量级的数据交互格式,用来传输数据 2.json模块 dumps:把字典转化成json字符串. loads:把json字符串转成字典. dump.load操作的是文件 ...
- 基于QT的中国象棋
基于QT的中国象棋,可实现人人对战,人机对战,联网对战,可显示棋谱,可悔棋. 还有一些小毛病,我之后会找空把这个DEMO重新修改一下上传 链接:https://pan.baidu.com/s/1-eM ...
- 网络通信框架:Netty和Mina
参考: https://www.cnblogs.com/wrencai/p/5907042.html https://blog.csdn.net/qq_29954971/article/details ...