单机安装ELK
、 简介
1.1 介绍
ELK是三个开源工具组成,简单解释如下:
Elasticsearch是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。
Logstash是一个完全开源的工具,它可以对你的日志进行收集、过滤,并将其存储供以后使用(如,搜索)。
Kibana 也是一个开源和免费的工具,它可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助您汇总、分析和搜索重要数据日志。
1.2 场景分析
日志主要包括系统日志、应用程序日志和安全日志等等。运维人员和开发人员可以通过日志了解服务器软硬件信息、检查配置过程中的错误及错误发生的原因。经常分析日志可以了解服务器的负荷,性能安全性,从而及时采取措施纠正错误。
通常,日志被分散的储存不同的设备上。如果你管理数十上百台服务器,你还在使用依次登录每台机器的传统方法查阅日志。这样是不是感觉很繁琐和效率低下。当务之急我们使用集中化的日志管理,例如:开源的syslog,将所有服务器上的日志收集汇总。
集中化管理日志后,日志的统计和检索又成为一件比较麻烦的事情,一般我们使用grep、awk和wc等Linux命令能实现检索和统计,但是对于要求更高的查询、排序和统计等要求和庞大的机器数量依然使用这样的方法难免有点力不从心。
这里采用开源实时日志分析ELK平台能够完美的解决我们上述的问题,当然也还有别的平台或者工具可以使用,这里只讨论ELK,官方网站:https://www.elastic.co
二、安装Elasticsearch
2.1 安装jdk
|
1
2
3
4
|
# java -versionjava version "1.8.0_121"Java(TM) SE Runtime Environment (build 1.8.0_121-b13)Java HotSpot(TM) 64-Bit Server VM (build 25.121-b13, mixed mode) |
2.2 安装Elasticsearch
|
1
2
3
4
5
|
# tar -zxvf elasticsearch-5.6.3.tar.gz# mv elasticsearch-5.6.3 /data/elasticsearch# cd elasticsearch/config/# 备份配置文件# cp elasticsearch.yml elasticsearch.yml.bak |
编辑配置文件
|
1
2
3
4
5
6
7
8
9
|
# cat elasticsearch.yml | grep -v ^#cluster.name: elk-applicationnode.name: node-1path.data: /data/elasticsearch/datapath.logs: /data/elasticsearch/logsnetwork.host: 172.16.220.248http.port: 9200discovery.zen.ping.unicast.hosts: ["node-1"]discovery.zen.minimum_master_nodes: 1 |
添加elasticsearch用户,不能使用root启动
|
1
2
3
|
# groupadd -g 1008 elasticsearch# useradd -g 1008 -u 1008 elasticsearch# chown -R elasticsearch:elasticsearch /data/elasticsearch/ |
修改sysctl.conf文件
|
1
2
3
4
|
# vim /etc/sysctl.confvm.max_map_count = 262144# sysctl -p |
修改/etc/security/limits.conf文件,修改打开文件句柄
|
1
2
3
4
|
* soft nofile 100000* hard nofile 100000* soft nproc 100000* hard nproc 100000 |
添加hosts文件
|
1
2
|
# vim /etc/hosts172.16.220.248 node-1 |
启动
|
1
2
3
|
# su -s elasticsearch# cd /data/elasticsearch/bin# ./elasticearch & |
查看是否启动

简单的curl测试
|
1
|
# curl http://172.16.220.248:9200 |

三、安装Logstash和filebeat
filebeat用于在各个服务器上获取数据,发送到logstash上,再由logstash处理数据。
3.1 安装logstash
|
1
2
|
# tar -zxvf logstash-5.6.3.tar.gz# mv logstash-5.6.3 /data/logstash |
3.2 安装filebeat
下载filebeat并启动,通过它来监听数据源文件的新增内容经过logstash处理后上传到es里面
|
1
2
3
4
|
# tar -zxvf filebeat-5.6.3-linux-x86_64.tar.gz# mv filebeat-5.6.3-linux-x86_64 /data/filebeat# cd /data/filebeat# cp filebeat.yml filebeat.yml.bak |
编辑filebeat.yml文件
|
1
2
3
4
5
6
|
filebeat.prospectors:- input_type: log paths: - /var/log/message-log # 测试本机的一个log文件output.logstash: hosts: ["172.16.220.248:5044"] |
启动filebeat服务
|
1
2
|
# cd /data/filebeat# ./filebeat & |
查看启动,filebeat没有监听端口,主要看日志和进程
|
1
2
|
# tialf logs/filebeat# ps -ef | grep filebeat |

filebeat监听的文件记录信息在/data/filebeat/data/registry
新建一个本地文件message-log,可以取几条本机系统的messages文件

3.3 启动logstash
最后新建一个logstash的启动指定test.conf配置文件,内容如下:
|
1
2
3
4
5
6
7
8
9
10
11
|
input { beats { port => "5044" }}output { elasticsearch { hosts => "172.16.220.248:9200" } stdout { codec => rubydebug } # 这是将输出打印在屏幕上,可以注释掉} |
Logstash默认有input、filter、output三个区域,一般最少需要配置input和output即可!
logstash的本身默认的logstash.yml配置文件选择不修改即可!
简单测试一下logstash不指定配置文件启动
|
1
2
|
# cd /data/filebeat/bin# ./logstash -e 'input { stdin {} } output {stdout {} }' |

我们手动输入 hello world,它也会输出 hello world
指定配置文件启动logstash
|
1
|
# ./logstash -f ../config/test.conf & |
查看5044端口和9600端口是否开启

等待一会后应该会出现如下信息输出,这也就是test.conf里面最后一行定义输出到屏幕上

四、安装kibana
|
1
2
3
4
|
# tar -zxvf kibana-5.6.3-linux-x86_64.tar.gz# mv kibana-5.6.3-linux-x86_64 /data/kinbana# cd /data/kinbana/config/# cp kibana.yml kibana.yml.bak |
编辑kibana.yml配置文件
|
1
2
3
4
|
# vim kibana.ymlserver.port: 5601server.host: "172.16.220.248"elasticsearch.url: "http://172.16.220.248:9200" |
启动kinbana
|
1
2
|
# cd /data/kibana/bin# ./kibana & |
查看端口

浏览器登入查看

点击create按钮后,然后点击上面的discover按钮,注意如果没数据的话,注意看看导入的时间@timestamp和现在的时间对比一下,kibana默认只显示最近15分钟的数据,如果超出15分钟请选择适当的时间,从kibana可以看到messages-log里面的15条数据都正常导入了。这就也完成我们的实现的第一个效果。但是这仅仅是把流程跑通了,接下来我们需要做的事情还有更多。注意只能先导入数据到es后才能在kibana创建索引。

五、获取Nginx access日志
Nginx日志格式在logstash的grok里面默认是没有的,需要我们手动配置,可以通过http://grokdebug.herokuapp.com/ 在线工具来判断配置是否正确。
5.1 在nginx服务器上安装filebeat
服务器: 172.16.200.160
|
1
2
3
4
|
# tar -zxvf filebeat-5.6.3-linux-x86_64.tar.gz# mv filebeat-5.6.3-linux-x86_64 /data/filebeat# cd /data/filebeat# cp filebeat.yml filebeat.yml.bak |
修改filebeat配置文件
|
1
2
3
4
5
6
7
8
|
# cat filebeat.yml | grep -v ^$ | grep -v ^# | grep -v "#"filebeat.prospectors:- input_type: log paths: - /data/nginx/logs/160_access.log document_type: nginx_accessoutput.logstash: hosts: ["172.16.220.248:5044"] |
启动filebeat
|
1
|
# ./filebeat & |
5.2 重新配置logstash启动配置文件
nginx日志格式,根据业务要求,我们这做了一些修改,比如增加cookie等,修改access.log日志时间格式等,这个会在另外的博客中写出来,会给出链接的。
nginx日志中添加cookie信息
nginx改变access.log中的时间格式
Nginx日志格式
|
1
2
3
4
5
6
7
8
|
log_format main '[$time_local] - $remote_addr:$remote_port - $upstream_addr $upstream_status $upstream_response_time - ' '"$request" $status $bytes_sent $request_time ' '"$http_referer" - "$http_user_agent" - ' '"$customerTag_cookie" - "$ym_cookie" - "$http_cookie" ' '"$http_x_forwarded_for"';# 这里只是我们自己的格式,各位可以根据自己要求增删 |
grok使用表达式
可能我理解不是很到位,写的也比较复杂,我会把匹配对应项一一写出来,大家可以自己理解,然后为自己的项目配置
|
1
|
%{SYSLOG5424SD} - %{IPV4:clientip}:%{NUMBER:clientport} - %{IPV4:hostip}:%{NUMBER:itemport} %{INT:upstream_status} %{NUMBER:response_time} - \"%{WORD:method} %{URIPATHPARAM:request} HTTP/%{NUMBER:http_version}\" %{INT:status} %{INT:body_bytes_sent} %{NUMBER:request_time} %{QS:url} - %{QS:user_agent} - %{QS:customerTag} - %{QS:ym_traffic_session_id} - %{QS:all_cookies} %{IPV4:realip} |
grok匹配说明
|
时间格式 | ||
|
获取ip,clientip是自己命名的 | ||
|
NUMBER匹配数字 | ||
|
INT整形 | ||
|
WORD单词 | ||
|
获取请求内容request | ||
|
QS可以获取一段字符串 |
修改logstash启动配置文件
|
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
|
input { beats { port => "5044" }}filter { if [type] == "nginx_access" { grok { match => {"message" => "%{SYSLOG5424SD} - %{IPV4:clientip}:%{NUMBER:clientport} - %{IPV4:hostip}:%{NUMBER:itemport} %{INT:upstream_status} %{NUMBER:response_time} - \"%{WORD:method} %{URIPATHPARAM:request} HTTP/%{NUMBER:http_version}\" %{INT:status} %{INT:body_bytes_sent} %{NUMBER:request_time} %{QS:url} - %{QS:user_agent} - %{QS:customerTag} - %{QS:ym_traffic_session_id} - %{QS:all_cookies} %{IPV4:realip}"} } mutate { remove_field => "message" # 把message字段去掉,它会将上面单项获取的信息做个汇总,这样就重复了 } }}output { elasticsearch { hosts => "172.16.220.248:9200" }#stdout { codec => rubydebug }} |
测试一下配置文件
|
1
|
./logstash -t -f ../config/logstash.conf |

重启logstash
不出问题elasticsearch 和kibana中就会有数据了

单机安装ELK的更多相关文章
- ELK学习实验002:Elasticsearch介绍及单机安装
一 简介 ElasticSearch是一个基于Luncene的搜索服务器.它提供了一个分布式多用户能力全文搜索引擎,基于RESTful web接口,ElsticSearch使用Java开发的,并作为A ...
- Linux下单机部署ELK日志收集、分析环境
一.ELK简介 ELK是elastic 公司旗下三款产品ElasticSearch .Logstash .Kibana的首字母组合,主要用于日志收集.分析与报表展示. ELK Stack包含:Elas ...
- (原) 1.1 Zookeeper单机安装
本文为原创文章,转载请注明出处,谢谢 zookeeper 单机安装配置 1.安装前准备 linux系统(此文环境为Centos6.5) Zookeeper安装包,官网https://zookeeper ...
- Windows 安装ELK
在Windows服务器上安装ELK logstash在windows平台下不能监控磁盘文件,用nxlog代替,监控文件并把内容发送到logstash 部署环境 Os :Windows 7 logsta ...
- Linux下Kafka单机安装配置方法(图文)
Kafka是一个分布式的.可分区的.可复制的消息系统.它提供了普通消息系统的功能,但具有自己独特的设计.这个独特的设计是什么样的呢 介绍 Kafka是一个分布式的.可分区的.可复制的消息系统.它提供了 ...
- Ubuntu 下 Neo4j单机安装和集群环境安装
1. Neo4j简介 Neo4j是一个用Java实现的.高性能的.NoSQL图形数据库.Neo4j 使用图(graph)相关的概念来描述数据模型,通过图中的节点和节点的关系来建模.Neo4j完全兼容A ...
- CentOS 7.x安装ELK(Elasticsearch+Logstash+Kibana)
第一次听到ELK,是新浪的@ARGV 介绍内部使用ELK的情况和场景,当时触动很大,原来有那么方便的方式来收集日志和展现,有了这样的工具,你干完坏事,删除日志,就已经没啥作用了. 很多企业都表示出他们 ...
- Hbase单机安装部署
Hbase单机安装部署 http://blogxinxiucan.sh1.newtouch.com/2017/07/27/Hbase单机安装部署/ 下载Hbase Hbase官网下载地址 http:/ ...
- 单机安装Hadoop
单机安装hadoop ------------------------------------------------------------------ 操作系统:centos7 64 位 hado ...
随机推荐
- Code Review —— by12061154Joy
对结对队友刘丽萍的代码进行了复审: 优点: 1,代码逻辑正确,基本能够完全需求 2,用了不少C#自带的函数,第一次写C#,相信是查阅了不少资料,虽然还有很多地方值得优化,不过第一次能做到这样已经很不错 ...
- .NET 使用 RabbitMQ 图文简介
前言 最近项目要使用RabbitMQ,园里里面已经有很多优秀的文章,Rabbitmq官网也有.net实例.这里我尝试下图文并茂之形式记录下使用的过程. 安装 RabbitMQ是建立在erlang OT ...
- PAT L2-021 点赞狂魔
https://pintia.cn/problem-sets/994805046380707840/problems/994805058485469184 微博上有个“点赞”功能,你可以为你喜欢的博文 ...
- Windows samba history
https://blogs.technet.microsoft.com/josebda/2013/10/02/windows-server-2012-r2-which-version-of-the-s ...
- SQLite reset password
https://www.codeproject.com/tips/993395/sqliter-change-set-remove-passwords-on-sqlite-d https://sour ...
- Java的JDK下StringBuffer与StringBuilder的区别
下载JDK的源码,咱自己分析下: 用Beyond Compare打开看一下吧 1.他俩的历史问题: StringBuffer:* Copyright (c) 2003, 2008, Oracle an ...
- phpStorm字体大小无法调整, 怎么办?
最近上手了一款轻量级IDE phpStorm,可是就在调整编辑器字体大小时却遇到问题了, 发现字体大小无法调整,另外还有字体大小往左还有个“√”,始终无法去掉,这个勾限制了字体系列,就可怜巴巴的那几个 ...
- Node 多页面请求
//功能:创建web服务器接收客户请求// http://127.0.0.1:8080/index 准备// http://127.0.0.1:8080/news 准备// public/index. ...
- js控制浏览器全屏
HTML 5中的full screen,目前可以在除IE和opera外的浏览器中使用 ,有的时候用来做全屏API,游戏呀,等都很有用.先看常见的API element.requestFullScree ...
- Python 2和Python 3的编码问题
在Python2中,字符串无法完全地支持国际字符集和Unicode编码.为了解决这种限制,Python2对Unicode数据使用了单独的字符串类型.要输入Unicode字符串字面量,要在第一个引号前加 ...