原文:https://blog.51cto.com/11134648/2163789

ELK简介

ELK是一套完整的日志解决方案,由ElasticSearch、Logstash、 Kibana
这三款开源软件组成。

  • EastiSearch是基于Lucene开发的分布式存储检引擎,用来存储各类日志;
  • Logstash对日志进行收集、分析,并将其存储供以后使用:
  • Kibana 是基于Node.js开发的展示工具,为Logstah和ElasticSearch提供用于日志展示的Web界面,还用于帮助汇总、分析和搜索重要日志数据。

ELK官网https://www.elastic.co/products 分别提供包进行下载安装。

ELK工作原理

  • 在所有需要收集日志的服务上部署Logstash,作为署Logstash agent用于监控并过滤所收集的日志,将过滤后的内容整合在一起,最终全部交给EastiSearch检索引擎;
  • 用EastiSearch进行自定义检索;
  • 再通过Kibana通过结合自定义检索内容生成图表,进行日志数据展示。

部署ElasticSearch

1.安装ElasticSearch

rpm --import https://packages.elastic.co/GPG-KEY-elasticsearch

vim elasticsearch.repo        #配置yum源

[elasticsearch-2.x]
name=Elasticsearch repository for 2.x packages
baseurl=http://packages.elastic.co/elasticsearch/2.x/centos
gpgcheck=1
gpgkey=http://packages.elastic.co/GPG-KEY-elasticsearch
enable=1 yum install elasticsearch -y #yum安装elasticsearch

2.安装Java

yum install java -y  

java -version

3.修改配置文件elasticsearch.yml

cd /etc/elasticsearch/

vim elasticsearch.yml

#17行 集群名称
cluster.name: yun #23行 节点名称
node.name: node1 #33行 工作目录
path.data: /data/es-data
path.logs: /var/log/elasticsearch/ #43行 防止交换swap分区
bootstrap.memory_lock: true #54行 监听网络
network.host: 0.0.0.0 #58行 端口
http.port: 9200

4.创建配置文件中的工作目录,并修改其属性

mkdir -p /data/es-data

chown -R elasticsearch:elasticsearch /data/es-data/

5.启动ElasticSearch服务,并查看其端口9200

systemctl start elasticsearch.service

netstat -ntap | grep 9200  #稍微等待一会

6.通过浏览器访问9200端口

http://192.168.26.144:9200

7.ES交互

通过RESTful API (通过json格式交互)

curl -i -XGET 'http://192.168.175.132:9200/_count?pretty' -d '{
"query": {
"match_all": {}
}
}'

`

8.安装插件

  #安装ES插件elasticsearch-head
/usr/share/elasticsearch/bin/plugin install mobz/elasticsearch-head
 #安装ES插件elasticsearch-kopf
/usr/share/elasticsearch/bin/plugin install lmenezes/elasticsearch-kopf

安装完成后在plugins目录下可以看到head和kopf

可以在web界面上输入数据,再查询

9.部署ES多集群

在第二台服务器上同时安装ES服务同上,需要注意的是修改配置文件elasticsearch.yml有些许不同。

cd /etc/elasticsearch/

vim elasticsearch.yml

#17行 集群名称
cluster.name: yun #23行 节点名称
node.name: node2 #69行 自动发现机制
discovery.zen.ping.unicast.hosts: ["192.168.26.144", "192.168.26.147"]


启动elasticsearch

systemctl start elasticsearch.service

netstat -ntap | grep 9200

同样在第一台服务器node1中配置文件修改,再重启服务

#69行 单播列表自动发现机制
discovery.zen.ping.unicast.hosts: ["192.168.26.147", "192.168.26.144"]

访问head可以看到ES的主分片和副本分片

http://192.168.26.144:9200/_plugin/head/


访问kopf可以看到ES的集群节点信息

http://192.168.26.144:9200/_plugin/kopf/

9.生产环境注意内存解锁和文件限制

less /var/log/elasticsearch/yun.log  #查看集群日志提示不让锁内存


修改配置文件/etc/security/limits.conf

vim /etc/security/limits.conf
#末尾插入
# allow user 'elasticsearch' mlockall
elasticsearch soft memlock unlimited
elasticsearch hard memlock unlimited
* soft nofile 65535
* hard nofile 65535

重启生效

systemctl restart elasticsearch.service

部署Logstash

1.安装Logstash

rpm --import https://packages.elastic.co/GPG-KEY-elasticsearch

vim /etc/yum.repos.d/ogstash.repo  #配置yum源

[logstash-2.1]
name=Logstash repository for 2.1.x packages
baseurl=http://packages.elastic.co/logstash/2.1/centos
gpgcheck=1
gpgkey=http://packages.elastic.co/GPG-KEY-elasticsearch
enable=1 yum install logstash -y

2.创建链接,识别logstash命令

ln -s /opt/logstash/bin/logstash /usr/bin/

3.配置Logstash收集

Logstash使用input和output定义收集日志时的输入和输出。

  • input常用的输入源有:
    file、syslog、redis、log4j、apache log或nginx log,或者其他一些自定义的log格式。
  • output常用的输出有:
    elasticsearch比较常用,fle:写入文件,redis: 写入队列,hdfs: 写入HDFS,需插件支持,zabbix: zabbix监控,mongodb: 写入mongodb库,除此之外编码插件codes也比较常用,经常用来处理json数据或者多行数据源。

(1)定义输入和输出流,类似管道

logstash -e 'input { stdin{} } output { stdout{} }'

(2)详细格式显示

logstash -e 'input { stdin{} } output { stdout{ codec => rubydebug } }'


(3)写入到elasticsearch中

logstash -e 'input { stdin{} } output { elasticsearch { hosts => ["192.168.26.144:9200"] } }'



(4)写入ES和同时生成文本

logstash -e 'input { stdin{} } output { elasticsearch { hosts => ["192.168.26.144:9200"] } stdout { codec => rubydebug } }'


(5)编写配置文件将事件生成到ES

vim /etc/logstash/conf.d/01-logstash.conf

input { stdin { } }
output {
elasticsearch { hosts => ["localhost:9200"] }
stdout { codec => rubydebug }
}
logstash -f /etc/logstash/conf.d/01-logstash.conf  #配置文件生效


5.使用logstash收集日志(系统日志、java异常日志、事件优化处理)

编写配置文件将日志生成到ES中

vim /root/file.conf

input {

      file {
path => "/var/log/messages" #系统日志
type => "system"
start_position => "beginning"
}
file {
path => "/var/log/elasticsearch/yun.log" #java异常日志
type => "es-error"
start_position => "beginning"
codec => multiline { #多行优化处理
pattern => "^\["
negate => true
what => "previous"
}
}
} output { if [type] == "system" {
elasticsearch {
hosts => ["192.168.26.144:9200"]
index => "system-%{+YYYY.MM.dd}"
}
} if [type] == "es-error" {
elasticsearch {
hosts => ["192.168.26.144:9200"]
index => "es-error-%{+YYYY.MM.dd}"
}
}
} logstash -f /root/file.conf #日志生成到ES上



部署kibana

1.安装kibana

wget https://download.elastic.co/kibana/kibana/kibana-4.3.1-linux-x64.tar.gz

tar zxvf kibana-4.3.1-linux-x64.tar.gz -C /opt/

mv /opt/kibana-4.3.1-linux-x64/ /usr/local/

cd /usr/local
mv kibana-4.3.1-linux-x64/ kibana

2.编辑kibana配置文件

vim /usr/local/kibana/config/kibana.yml

#2行
server.port: 5601 #5行
server.host: "0.0.0.0" #12行 ES地址
elasticsearch.url: "http://192.168.26.144:9200" #20行
kibana.index: ".kibana"

3.启动kibana

yum install screen -y
screen #开启
/usr/local/kibana/bin/kibana


ctrl+a+d 进行丢入后台

4.访问kibana




基于ELK的日志分析、存储、展示的更多相关文章

  1. 基于ELK Nginx日志分析

    配置Nginx 日志 Nginx 默认的access 日志为log格式,需要logstash 进行正则匹配和清洗处理,从而极大的增加了logstash的压力 所以我们Nginx 的日志修改为json ...

  2. 手把手教你搭建 ELK 实时日志分析平台

    本篇文章主要是手把手教你搭建 ELK 实时日志分析平台,那么,ELK 到底是什么呢? ELK 是三个开源项目的首字母缩写,这三个项目分别是:Elasticsearch.Logstash 和 Kiban ...

  3. asp.net core结合NLog搭建ELK实时日志分析平台

    0.整体架构 整体架构目录:ASP.NET Core分布式项目实战-目录 一.介绍ELK 1.说明(此篇ELK采用rpm的方式安装在服务器上)-牛刀小试 承接上一篇文章的内容准备部署ELK来展示asp ...

  4. [原创]ubuntu14.04部署ELK+redis日志分析系统

    ubuntu14.04部署ELK+redis日志分析系统 [环境] host1:172.17.0.4 搭建ELK+redis服务 host2:172.17.0.3 搭建logstash+nginx服务 ...

  5. ELK + Filebeat 日志分析系统

    ELK + Filebeat 日志分析系统 架构图 环境 OS:CentOS 7.4 Filebeat: 6.3.2 Logstash: 6.3.2 Elasticsearch 6.3.2 Kiban ...

  6. ELK实时日志分析平台环境部署,以及可视化展示

    ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash, Kibana , 它们都是开源软件.新增了一个FileBeat,它是一个轻量级的日志收集处理工具(Agent) ...

  7. Centos7下ELK+Redis日志分析平台的集群环境部署记录

    之前的文档介绍了ELK架构的基础知识,日志集中分析系统的实施方案:- ELK+Redis- ELK+Filebeat - ELK+Filebeat+Redis- ELK+Filebeat+Kafka+ ...

  8. ELK实时日志分析平台环境部署--完整记录

    在日常运维工作中,对于系统和业务日志的处理尤为重要.今天,在这里分享一下自己部署的ELK(+Redis)-开源实时日志分析平台的记录过程(仅依据本人的实际操作为例说明,如有误述,敬请指出)~ ==== ...

  9. ELK实时日志分析平台环境部署--完整记录(转)

    在日常运维工作中,对于系统和业务日志的处理尤为重要.今天,在这里分享一下自己部署的ELK(+Redis)-开源实时日志分析平台的记录过程(仅依据本人的实际操作为例说明,如有误述,敬请指出)~ ==== ...

随机推荐

  1. CSS3 column 分栏

     column的布局形式还没有使用过,后续的bug和解决方案有待检验. column column-count:number: 设置内容分为多少栏显示 column-width:长度单位:设置每一栏的 ...

  2. linux系统卡顿 性能分析

    systemtrap 是一个内核开发者要掌握的工具. linux performance analysis 系统瓶颈性能分析软件

  3. golang 学习 (八)协程

    一: 进程.线程 和 协程 之间概念的区别:        对于 进程.线程,都是有内核进行调度,有 CPU 时间片的概念,进行 抢占式调度(有多种调度算法)    (补充: 抢占式调度与非抢占(轮询 ...

  4. 你应该知道的4个DSP开发支持库

    引言 在dsp开发中,为了节省开发时间和难度,TI将一些成熟的算法封装为模块,供开发者使用.如果能充分利用这些算法支持库,对于加快dsp开发进程与提高代码质量.稳定性有非常大的帮助. Digital ...

  5. android基础---->ContentProvider的使用

    内容提供器(Content Provider)主要用于在不同的应用程序之间实现数据共享的功能,它提供了一套完整的机制,允许一个程序访问另一个程序中的数据,同时还能保证被访数据的安全性.目前,使用内容提 ...

  6. 【Luogu P3258】[JLOI2014]松鼠的新家

    Luogu P3258 题意就是对于一棵树,要求按照给出的顺序对每一个节点进行访问,记录每一个节点被经过的次数:特别地,我们认为只有从一个节点往外走才能被认为是经过一次.(最后一句话非常重要,仔细理解 ...

  7. 用pytorch1.0搭建简单的神经网络:进行回归分析

    搭建简单的神经网络:进行回归分析 import torch import torch.nn.functional as F # 包含激励函数 import matplotlib.pyplot as p ...

  8. Java的设计模式(7)— 生产者-消费者模式

    生产者-消费者模式是一个经典的多线程设计模式,它为多线程间的协作提供了良好的解决方案.这个模式中,通常有两类线程,即若干个生产者线程和若干个消费者线程.生产者线程负责提交用户请求,消费者线程则负责具体 ...

  9. 修改主机名和修改主机映射和ssh免登陆

    1.修改主机名 vim /etc/sysconfig/network NETWORKING=yes HOSTNAME=cc3 2.修改主机映射 vi /etc/hosts 127.0.0.1 loca ...

  10. MATLAB 提取图片中的曲线数据重新画图

    注意: 本代码是由[MATLAB R2015b win 32位]编写. 先上代码: %% 清空变量 clear all; clc; %% 取点之后趋势是对的,也就是点与点之间的比例是对的,但是每个点的 ...