Elk日志安装文档

需要用到有三个软件包 和redis

分布式部署:已上图就是分布式部署的架构图

Logstash :    是部署在前台的应用上,收集数据的

和部署在redis和elasticsearch中间充当索引

Elasticsearch: 部署在logstash之后的,将logsstash收集的数据存储

Kibana     : 部署在最后,经elasticsearch收集的数据通过页面展现出来(默认端口号:5601)

我这里部署的logstash  elasticsearch   kibana   在一台服务器上,但是应用的服务器还是要不是logstash的

开始部署:

Server端:(logstash  clasticsearch   kibana的部署)需要jdk环境

将软件包上传的要安装的目录,我安装目录是/picclife (注:要用普通用户暗转,不然不安全)

我有的是app_admin用户

安装jdk环境我安装在/picclife

编辑app_admin 用户的jdk变量

vim  /home/app_admin/.bash_protfile

PATH=/picclife/jdk1.8.0_65/bin/:$PATH:$HOME/bin

export PATH

export JAVA_HOME=/picclife/jdk1.8.0_65/

export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export PATH=$PATH:$JAVA_HOME/bin

申明变量:source  /home/app_admin/.bash_protfile

查看java  -version

安装logstash:

tar -zxf logstash-5.3.0.tar.gz

在/picclife/logstash-5.3.0/config 创建一个logstash.conf  .conf结尾的文件

编辑vim  logsstach.conf

input{

redis{

batch_count => 1

data_type => "list"

key => "logstash-uap-list"    #logstach应用的服务器上一样就可以

host => "10.135.100.86"  #redis的ip

port => 6379               #redis的端口好

password => "nick123"       #redis的密码

db => 2  #redis的索引(可以在redis上查看一下如没人用就可以最下面有截图)

threads => 1

}

}

output{

elasticsearch{

hosts => ["10.135.33.129"]   #elasticsearch的ip

index => "uap-log"

}

stdout{

codec => rubydebug{}

}

}

编辑启动脚本在/picclife/logstach-5.3.0

vim logstash_start.sh

nohup /picclife/logstash-5.3.0/bin/logstash -f /picclife/logstash-5.3.0/config/logstash.conf  >> /picclife/logstash-5.3.0/logs/logstash-start.log 2>&1 &  #nohup后台运行 将启动的程序追加到logstash-start.log文件里 可以到这个文件查看启动报不报错

在/picclife/logstach-5.3.0创建logs目录

mkdir  logs

执行脚本启动

sh logstash_start.sh

关闭是: ps -ef |grep logstash  kill  查到的进程

安装elasticsearch 

tar -zxf elasticsearch-5.3.0.tar.gz

编辑启动脚本在/picclife/elasticsearch-5.3.0

vim elasticesarch_start.sh

nohup /picclife/elasticsearch-5.3.0/bin/elasticsearch  >> /picclife/elasticsearch-5.3.0/logs/elasticsearch-start.log 2>&1 &

在/picclife/elasticsearch-5.3.0 下创建logs目录

mkdir  logs

启动 sh  elasticseart_start.sh

关闭  ps  -ef|grep elasticseart  kill  查到的进程

 

安装 kibana

tar -zxf kibana-5.3.0-linux-x86_64.tar.gz

/picclife/kibana-5.3.0/config 编辑

vi kibana.yml 指向elasticsearch的ip

/picclife/kibana-5.3.0/创建启动脚本

vi kibana_start.sh

nohup /picclife/kibana-5.3.0/bin/kibana  >> /picclife/kibana5.3.0/logs/kibana-start.log 2>&1 &

kibana-5.3.0创建logs目录

mkdir  logs

启动是 sh  kebana_start.sh

关闭是ps  -ef|grep node   kill  查到的进程 (kibana是不需要jdk环境的)

Redis 查看一显现是可以

服务器基本安装完成开始安装客户端:(jdk环境)

解压:

tar -zxf logstash-5.3.0.tar

在/picclife/logstash-5.3.0/config创建logstash.conf 的文件

Vim logstash.conf

input{

file{

path => ["/picclife/apache-tomcat-8.0.30/logs/catalina.out"] #监听的日志

type => "uap-log-all"

start_position => "beginning"

}

}

filter{

grok {

patterns_dir => "/picclife/logstash-5.3.0/config/patternsutils"  #需要创建这个文件有日志格式的这则

match => {

"message" =>

[

"%{TIMESTAMP_ISO8601:RequestTime}%{SPACE}%{MATCHSTR:RequestName}%{SPACE}>>>%{SPACE}%{USERNAME:RequestId}%{SPACE}>>>%{SPACE}%{ROUTEID:RdID}%{SPACE}<<<%{SPACE}SystemNo:%{ZW:SystemNo}\,%{SPACE}InterfaceNo:%{ZW:InterfaceNo}\,%{SPACE}InterfaceName:%{ZW:InterfaceName}\,%{SPACE}Flag:%{ZW:Flag}\,%{SPACE}CostTime:%{INT:CostTime}%{SPACE}%{ZW:other}"

] #日志格式

}

remove_field => [ "message","other"]

}

##过滤日志(过滤掉requestName!=camlelog的记录)

if [RequestName]!="camellog" and [RequestName]!="gatherlog"{

drop{}

}

date {

match => ["RequestTime", "MMM dd YYY HH:mm:ss", "MMM  d YYY HH:mm:ss", "ISO8601"]

locale => "en"

#timezone => "+00:00"

remove_field => [ "RequestTime" ]

}

mutate {

convert => { "CostTime" => "integer" }

}

}

output{

redis{

data_type => "list"

key => "logstash-uap-list"

host => "10.135.100.86" #redis  ip

port => 6379           #redis端口

password => "nick123"   #redis的密码

db => 2                #redis的索引和上面的一样

}

stdout{

codec => rubydebug{}

}

}

/picclife/logstash-5.3.0/config/下穿件patternsutils文件

Vim patternsutils

ZW (.*)

SPSTR (([\s\S]*))

###匹配{....}格式的字符串

DKH (\{.*\})

###匹配字母

MATCHSTR ([A-Za-z]*)

###java 时间格式  2017-05-26 08:01:03

JAVA_DATE %{DATE_EU} %{TIME}

###匹配XXX{....}、XXX[...]以及XX字符

DKHBODY ((.*\{.*\})|(.*\[.*\])|(.*))

###匹配(

LEFTBRACKET (\()

###匹配)

RIGHTBRACKET (\))

###匹配括号里的routeid

ROUTEID (.{5,9})

/picclife/logstash-5.3.0 创建启动脚本

vim  logstash_start.sh

nohup /picclife/logstash-5.3.0/bin/logstash -f /picclife/logstash-5.3.0/config/logstash.conf  >> /picclife/logstash-5.3.0/logs/logstash-start.log 2>&1 &

/picclife/logstash-5.3.0/创建logs

mkdir  logs

关闭: ps -ef |grep logstash  kill  查到的进程

到此elk的安装完成

有道云笔记的参考

http://note.youdao.com/noteshare?id=a6bce94ea32d5fce9a2b1705d6a272aa

elk的安装部署的更多相关文章

  1. ELK详细安装部署

    一.前言 ​ 日志主要包括系统日志和应用程序日志,运维和开发人员可以通过日志了解服务器中软硬件的信息,检查应用程序或系统的故障,了解故障出现的原因,以便解决问题.分析日志可以更清楚的了解服务器的状态和 ...

  2. ELK+KAFKA安装部署指南

    一.ELK 背景 通常,日志被分散的储存不同的设备上.如果你管理数十上百台服务器,你还在使用依次登录每台机器的传统方法查阅日志.这样是不是感觉很繁琐和效率低下.当务之急我们使用集中化的日志管理,例如: ...

  3. elk单机安装部署

    es 下载地址:wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.1.0-linux-x86_64.t ...

  4. ELK 安装部署小计

    ELK的安装部署已经是第N次了! 其实也很简单,这里记下来,以免忘记. #elasticsearch安装部署 wget https://artifacts.elastic.co/downloads/e ...

  5. ELK日志监控平台安装部署简介--Elasticsearch安装部署

    最近由于工作需要,需要搭建一个ELK日志监控平台,本次采用Filebeat(采集数据)+Elasticsearch(建立索引)+Kibana(展示)架构,实现日志搜索展示功能. 一.安装环境描述: 1 ...

  6. ELK 安装部署实战 (最新6.4.0版本)

    一.实战背景 根据公司平台的发展速度,对于ELK日志分析日益迫切.主要的需求有: 1.用户行为分析 2.运营活动点击率分析 作为上述2点需求,安装最新版本6.4.0是非常有必要的,大家可根据本人之前博 ...

  7. ELK文档-安装部署

    一.ELK简介 请参考:http://www.cnblogs.com/aresxin/p/8035137.html 二.ElasticSearch安装部署 请参考:http://blog.51cto. ...

  8. supervisor的安装部署及集群管理

    supervisor的安装部署及集群管理 supervisor官网:http://www.supervisord.org/ 参考链接: http://blog.csdn.net/xyang81/art ...

  9. ELK集群部署实例(转)

    转载自:http://blog.51cto.com/ckl893/1772287,感谢原博. 一.ELK说明 二.架构图 三.规划说明 四.安装部署nginx+logstash 五.安装部署redis ...

随机推荐

  1. 厉害了WORD大S

    REPORT YLYTEST01. ) TYPE C VALUE 'ABC'. WRITE LV_C TO LV_C RIGHT-JUSTIFIED. '. WRITE LV_C. 结果: 另外收藏一 ...

  2. 大数据分析引擎Apache Flink

    Apache Flink是一个高效.分布式.基于Java实现的通用大数据分析引擎,它具有分布式 MapReduce一类平台的高效性.灵活性和扩展性以及并行数据库查询优化方案,它支持批量和基于流的数据分 ...

  3. [CodeForces - 614B] B - Gena's Code

    B - Gena's Code It's the year 4527 and the tanks game that we all know and love still exists. There ...

  4. HashSet和ArrayList有什么区别

    hashSet存储的是无序,不可重复,无索引 ArrayList存储的是有序,可重复,有索引

  5. python3+ftplib实现ftp客户端

    一.程序说明 1.1 程序实现关键点 python实现ftp客户端,主要会遇到以下四个问题: 第一个问题是使用什么包实现----我们这里是使用标准库中的ftplib 第二个问题是怎么连接登录ftp服务 ...

  6. Spring Boot整合@Scheduled定时计划

    原文地址:https://blog.csdn.net/justry_deng/article/details/80666508 修改部分: SpringBoot集成了@Scheduled的相关依赖(o ...

  7. 神奇的口袋(dp)

    有一个神奇的口袋,总的容积是40,用这个口袋可以变出一 些物品,这些物品的总体积必须是40. John现在有n(1≤n ≤ 20)个想要得到的物品,每个物品 的体积分别是a1,a2……an.John可 ...

  8. shell shell基本概述

    SHELL的概念 SHELL是一个命令行解释器,它为用户提供了一个向Linux内核发送请求以便运行程序的界面系统级程序, 用户可以用shell来启动,挂起,停止甚至是编写一些程序. ​ Shell还是 ...

  9. day2编程语言的两大分类

    编程的语言的发展经历了 机器语言 汇编语言 高级语言 高级语言更贴近人类的语言,但是必须被翻译成计算机能读懂的二进制后,才能够被执行,按照翻译方式分为 1   编译型(需要编译器,相当于用谷歌翻译); ...

  10. 删除所有已经停止的容器 docker rm $(docker ps -a -q)

    杀死所有正在运行的容器docker kill $(docker ps -a -q) 删除所有已经停止的容器docker rm $(docker ps -a -q) 删除所有未打 dangling 标签 ...