来源: http://blog.csdn.net/xifeijian/article/details/50829617

日志监控和分析在保障业务稳定运行时,起到了很重要的作用,不过一般情况下日志都分散在各个生产服务器,且开发人员无法登陆生产服务器,这时候就需要一个集中式的日志收集装置,对日志中的关键字进行监控,触发异常时进行报警,并且开发人员能够查看相关日志。logstash+elasticsearch+kibana3就是实现这样功能的一套系统,并且功能更强大。

logstash:是一个管理日志和事件的工具,你可以收集它们,解析它们,并存储它们以供以后使用(例如日志搜索),logstash有一个内置的web界面,用来搜索你的所有日志。logstash在部署时有两种运行模式:standalone和centralized:

* standalone:standalone的意思是所有的事情都在一台服务器上运行,包括日志收集、日志索引、前端WEB界面都部署在一台机器上。

* centralized:就是多服务器模式,从很多服务器运输(ship)日志到一台总的日志(collector)服务器上用来索引和查找。

需要注意的是logstash本身并没有什么shipper和indexer这种说法,因为不论是运输日志的进程还是汇集总的日志的进程运行的都是同一个程序,只是使用的配置文件不同而已。

elasticsearch:

基于lucene的开源搜索引擎,是一个分布式的搜索分析系统,主要特点有:real time data、real time analytics、distributed、high availability、multi-tenancy、full text search、document oriented、conflict management、schema free、restful api等等。

kibana3:

可视化日志和数据系统,作为WEB前端可以很容易的和elasticsearch系统结合。kibana有版本2和版本3的区分,版本2采用ruby编写,部署起来很麻烦,需要安装很多ruby依赖包(目前网上多是这个版本的部署),版本3采用纯html+css编写,因此部署起来很方便,解压即用,目前已经是kibana4了,建议大家使用最新版。

出于性能及扩展性考虑,实际应用中logstash我们必然采用centralized模式,最基本的结构图如下:

1、安装Redis,安装过程简单,这里不做详细说明。

2、安装ElasticSearch(目前版本1.4)

  1. <span style="font-size:14px;">wget 'https://download.elasticsearch.org/elasticsearch/elasticsearch/elasticsearch-0.90.7.tar.gz'
  2. tar zxvf elasticsearch-0.90.7.tar.gz
  3. cd elasticsearch-0.90.7/bin
  4. #可以在logstash agent启动后再启动
  5. ./elasticsearch -f</span>

3、启动logstash shipper,定义配置文件logstash.conf,根据实际情况定义,以下主要定义了input源为文件,output到redis,启动logstash shipper,例如:

  1. <span style="font-family: 'Microsoft YaHei';"><span style="font-size:14px;">input {
  2. file {
  3. type => "api_log"
  4. path => "/home/jws/app/nginxserver/logs/apiaccess.log"
  5. debug => true
  6. }
  7. file {
  8. type => "cas_log"
  9. path => "/home/jws/app/nginxserver/logs/casaccess.log"
  10. debug => true
  11. }
  12. file {
  13. type => "id_log"
  14. path => "/home/jws/app/nginxserver/logs/idaccess.log"
  15. debug => true
  16. }
  17. file {
  18. type => "login_log"
  19. path => "/home/jws/app/nginxserver/logs/loginaccess.log"
  20. debug => true
  21. }
  22. file {
  23. type => "proxy_log"
  24. path => "/home/jws/app/nginxserver/logs/proxyaccess.log"
  25. debug => true
  26. }
  27. }
  28. output {
  29. redis {
  30. host => "10.20.164.121"
  31. data_type => "list"
  32. key => "logstash:redis"
  33. }
  34. redis {
  35. host => "10.20.164.122"
  36. data_type => "list"
  37. key => "logstash:uop_file"
  38. }
  39. }</span></span>

启动shipper:

Java -jar /home/jws/htdocs/logstash/lib/logstash.jar agent -f /home/jws/htdocs/logstash/conf/logstash.conf -l /home/jws/htdocs/logstash/logs/logstash.log

4、启动logstash indexer
logstash的配置文件相当简单,主要有三部分:inputs、filters、outputs。事件在配置文件中的出现是有顺序的。在inputs、output、filter中,允许你设置配置插件,配置插件由一个插件名称和紧跟在后面的插件配置代码块构成。插件中的值可以是布尔值、字符串、数字、哈希、数组等,并且支持条件判断(if...else)。

例如以下indexer中的配置,并启动indexer:

  1. <span style="font-size:14px;">input {
  2. file {
  3. path => "/home/rsyslog/asaserver/*/*/*/proxy.log.*"
  4. exclude => "*.bz2"
  5. type => "proxy"
  6. }
  7. }
  8. filter {
  9. grok {
  10. match => [ "message", "%{APIPROXY}" ]
  11. patterns_dir => ["/home/jws/app/logstash/patterns"]
  12. }
  13. if [request_uripath_orig]{
  14. grok {
  15. match => [ "request_uripath_orig", "%{NSSS}" ]
  16. patterns_dir => ["/home/jws/app/logstash/patterns"]
  17. }
  18. }
  19. }
  20. output {
  21. #stdout { codec =>"rubydebug"}
  22. elasticsearch_http {
  23. host => "10.20.161.36"
  24. flush_size => 500
  25. idle_flush_time => 3
  26. index => "logstash_pf_proxy-%{+YYYY.MM.dd.HH}"
  27. template => "/home/jws/app/logstash/template/t.json"
  28. template_overwrite => true
  29. }
  30. }</span>

5、安装并启动kibana3,安装过程与普通软件安装无异,可以配合nginx安装,这里不做描述,需要注意的是需要在kibana config.js中配置elasticSearch的地址与端口。

注意红框中的内容,这只是kibana3的默认界面,需要我们用logstash.json代替default.json界面,具体目录源码目录下app/dashboards中。

例如项目中的一个例子,根据需求制作图表(类似饼图,柱状图,折线图等),在笔者实际项目中,从日志中分析数据,实现系统稳定性、响应时间、请求量、业务响应码、HTTP状态码等等以kibana展现;

并且,elasticsearch的用途远不如此,可以用来做搜索数据源,ES提供了编程接口,可以使用编程的方式获取ES中的数据自定义开发监控程序,灵活且功能强大。

官方文档(现在都整合在一起了):

logstash:https://www.elastic.co/guide/en/logstash/current/index.html

elasticsearch:https://www.elastic.co/

kibana:https://www.elastic.co/

logstash+elasticsearch+kibana搭建日志收集分析系统的更多相关文章

  1. 基于logstash+elasticsearch+kibana的日志收集分析方案(Windows)

    一 方案背景     通常,日志被分散的储存不同的设备上.如果你管理数十上百台服务器,你还在使用依次登录每台机器的传统方法查阅日志.这样是不是感觉很繁琐和效率低下.开源实时日志分析ELK平台能够完美的 ...

  2. syslog+rsyslog+logstash+elasticsearch+kibana搭建日志收集

    最近rancher平台上docker日志收集捣腾挺久的,尤其在配置上,特写下记录 Unix/Linux系统中的大部分日志都是通过一种叫做syslog的机制产生和维护的.syslog是一种标准的协议,分 ...

  3. filebeat -> logstash -> elasticsearch -> kibana ELK 日志收集搭建

    Filebeat 安装参考 http://blog.csdn.net/kk185800961/article/details/54579376 elasticsearch 安装参考http://blo ...

  4. filebeat+redis+logstash+elasticsearch+kibana搭建日志分析系统

    filebeat+redis+elk搭建日志分析系统 官网下载地址:https://www.elastic.co/downloads 1.下载安装filebeat wget https://artif ...

  5. 用ELK搭建简单的日志收集分析系统【转】

    缘起 在微服务开发过程中,一般都会利用多台服务器做分布式部署,如何能够把分散在各个服务器中的日志归集起来做分析处理,是一个微服务服务需要考虑的一个因素. 搭建一个日志系统 搭建一个日志系统需要考虑一下 ...

  6. Centos6.5使用ELK(Elasticsearch + Logstash + Kibana) 搭建日志集中分析平台实践

    Centos6.5安装Logstash ELK stack 日志管理系统 概述:   日志主要包括系统日志.应用程序日志和安全日志.系统运维和开发人员可以通过日志了解服务器软硬件信息.检查配置过程中的 ...

  7. 使用ELK(Elasticsearch + Logstash + Kibana) 搭建日志集中分析平台实践--转载

    原文地址:https://wsgzao.github.io/post/elk/ 另外可以参考:https://www.digitalocean.com/community/tutorials/how- ...

  8. Filebeat+Logstash+ElasticSearch+Kibana搭建Apache访问日志解析平台

    对于ELK还不太熟悉的同学可以参考我前面的两篇文章ElasticSearch + Logstash + Kibana 搭建笔记.Log stash学习笔记(一),本文搭建了一套专门访问Apache的访 ...

  9. 2018年ElasticSearch6.2.2教程ELK搭建日志采集分析系统(教程详情)

    章节一  2018年 ELK课程计划和效果演示1.课程安排和效果演示    简介:课程介绍和主要知识点说明,ES搜索接口演示,部署的ELK项目演示    es: localhost:9200    k ...

随机推荐

  1. 使用弹窗批量修改数据POPUP_GET_VALUES

    转自:https://blog.csdn.net/huanglin6/article/details/81231215 业务场景:在SAP内,有时候需要用户批量维护某些数据,这时候可以使用标准函数PO ...

  2. iis启动异常 0x80072749

    错误提示: “/”应用程序中的服务器错误. 无法向会话状态服务器发出会话状态请求.请确保 ASP.NET State Service (ASP.NET 状态服务)已启动,并且客户端端口与服务器端口相同 ...

  3. for miaomiao

    package com.mytest.formiaomiao; import java.util.ArrayList; import java.util.List; import java.util. ...

  4. 第七章 与Web集成——《跟我学Shiro》

    转发地址:https://www.iteye.com/blog/jinnianshilongnian-2024723 目录贴:跟我学Shiro目录贴 Shiro提供了与Web集成的支持,其通过一个Sh ...

  5. iOS面试-assign与retain

    assign 对基础数据类型 (NSInteger,CGFloat)和C数据类型(int, float, double, char)等等.        此标记说明设置器直接进行赋值,这也是默认值.在 ...

  6. charles 开始/暂停记录

    本文参考:charles 开始/暂停记录 1.1. stop/start recording 和 2.1 recording settings 是常用的功能了:这里需要注意就是后面的session1代 ...

  7. kotlin基本数据类型

    通过idea创建kotlin项目: 创建kotlin文件 package com.czhappy.chapter01 var aBoolean:Boolean = true var anInt:Int ...

  8. boost::bind四种应用场景的例子

        普通函数 int f( int a, int b ){return a + b;}boost::bind( f, _1, 9 )( 1 ) 成员函数 struct demo{int f( in ...

  9. python变量 - python基础入门(6)

    何为python变量,即数据类型.python变量一共六种类型:整数/浮点数/字符串/BOOL/列表/元组/字典,今天先讲解前四种,后三种留到后面的文章在讲解. 首先讲解print() 函数,prin ...

  10. PCL学习(二)三维模型转点云 obj转pcd----PCL实现

    #include <pcl/io/io.h> #include <pcl/io/pcd_io.h> #include <pcl/io/obj_io.h> #incl ...