利用RELK进行日志收集
利用RELK进行日志收集
发布时间:April 3, 2018 // 分类:运维工作,开发笔记,python // No Comments
前不久在做应急的总是遇到要求对日志进行分析溯源,当时就想到如果对常见的日志类进行解析后统一入库处理,然后在对相关的IP/URL进行统计归纳。对于溯源之类的很是方便。想到数据量比较大,又要便于分析,就想到了ELK.
搭建一套基于elk的日志分析系统。
系统centos 内存4G 双核
大概架构如此
1.elk搭建
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-6.4.2.rpmwget https://artifacts.elastic.co/downloads/kibana/kibana-6.4.2-x86_64.rpmwget https://artifacts.elastic.co/downloads/logstash/logstash-6.4.2.rpmrpm -ivh elasticsearch-6.4.2.rpm sudo chkconfig --add elasticsearch/etc/init.d/elasticsearch startrpm -ivh kibana-6.4.2-x86_64.rpm /etc/init.d/kibana startsudo chkconfig --add kibanarpm -ivh logstash-6.4.2.rpmcd /usr/share/logstashln -s /etc/logstash ./config |
整个elk系统搭建好了,安装redis作为agent收集日志来作为logstash的输入源
wget http://download.redis.io/redis-stable.tar.gztar zxf redis-stable.tar.gz cd redis-stablemake && make install |
修改redis.conf。
bind 0.0.0.0protected-mode nodaemonize yesmaxclients 1000000 |
启动redis
sudo redis.conf /etc/redis-server /etc/redis.conf |
Logstash配置文件是JSON格式,放在/etc/logstash/conf.d 。 该配置由三个部分组成:输入,过滤器和输出。
input 数据输入端,可以接收来自任何地方的源数据。file:从文件中读取syslog:监听在514端口的系统日志信息,并解析成RFC3164格式。redis:从redis-server list 中获取beat:接收来自Filebeat的事件Filter 数据中转层,主要进行格式处理,数据类型转换、数据过滤、字段添加,修改等,常用的过滤器如下。grok: 通过正则解析和结构化任何文本。Grok 目前是logstash最好的方式对非结构化日志数据解析成结构化和可查询化。logstash内置了120个匹配模式,满足大部分需求。mutate: 在事件字段执行一般的转换。可以重命名、删除、替换和修改事件字段。drop: 完全丢弃事件,如debug事件。clone: 复制事件,可能添加或者删除字段。geoip: 添加有关IP地址地理位置信息。output 是logstash工作的最后一个阶段,负责将数据输出到指定位置,兼容大多数应用,常用的有:elasticsearch: 发送事件数据到 Elasticsearch,便于查询,分析,绘图。file: 将事件数据写入到磁盘文件上。mongodb:将事件数据发送至高性能NoSQL mongodb,便于永久存储,查询,分析,大数据分片。redis:将数据发送至redis-server,常用于中间层暂时缓存。graphite: 发送事件数据到graphite。http://graphite.wikidot.com/statsd: 发送事件数据到 statsd。 |
编写logstash的配置文件。对所有的数据全盘接受,感谢Mosuan师傅的指导。
input { redis { host => '127.0.0.1' port => 6379 password => 'password' data_type => 'list' key => 'logstash:redis' }}output { elasticsearch { hosts => localhost } stdout { codec => rubydebug }} |

Logpara
利用RELK进行日志收集的更多相关文章
- 日志收集之rsyslog to kafka
项目需要将日志收集起来做存储分析,数据的流向为rsyslog(收集) -> kafka(消息队列) -> logstash(清理) -> es.hdfs: 今天我们先将如何利用rsy ...
- 利用ELK构建一个小型的日志收集平台
利用ELK构建一个小型日志收集平台 伴随着应用以及集群的扩展,查看日志的方式总是不方便,我们希望可以有一个便于我们查询及提醒功能的平台:那么首先需要剖析有几步呢? 格式定义 --> 日志收集 - ...
- 【转】Flume日志收集
from:http://www.cnblogs.com/oubo/archive/2012/05/25/2517751.html Flume日志收集 一.Flume介绍 Flume是一个分布式.可 ...
- ELK+kafka构建日志收集系统
ELK+kafka构建日志收集系统 原文 http://lx.wxqrcode.com/index.php/post/101.html 背景: 最近线上上了ELK,但是只用了一台Redis在 ...
- [转载] 一共81个,开源大数据处理工具汇总(下),包括日志收集系统/集群管理/RPC等
原文: http://www.36dsj.com/archives/25042 接上一部分:一共81个,开源大数据处理工具汇总(上),第二部分主要收集整理的内容主要有日志收集系统.消息系统.分布式服务 ...
- 用fabric部署维护kle日志收集系统
最近搞了一个logstash kafka elasticsearch kibana 整合部署的日志收集系统.部署参考lagstash + elasticsearch + kibana 3 + kafk ...
- 基于Flume的美团日志收集系统(二)改进和优化
在<基于Flume的美团日志收集系统(一)架构和设计>中,我们详述了基于Flume的美团日志收集系统的架构设计,以及为什么做这样的设计.在本节中,我们将会讲述在实际部署和使用过程中遇到的问 ...
- 基于Flume的美团日志收集系统(一)架构和设计
美团的日志收集系统负责美团的所有业务日志的收集,并分别给Hadoop平台提供离线数据和Storm平台提供实时数据流.美团的日志收集系统基于Flume设计和搭建而成. <基于Flume的美团日志收 ...
- Flume-NG + HDFS + HIVE 日志收集分析
国内私募机构九鼎控股打造APP,来就送 20元现金领取地址:http://jdb.jiudingcapital.com/phone.html内部邀请码:C8E245J (不写邀请码,没有现金送)国内私 ...
随机推荐
- 36-图像有用区(dfs, bfs)
http://acm.nyist.edu.cn/JudgeOnline/problem.php?pid=92 图像有用区域 时间限制:3000 ms | 内存限制:65535 KB 难度:4 ...
- php学习笔记-do while循环
do{ func(); }while(condition) do while执行逻辑是先执行循环体里面的代码,再判断condition是否为true,如果是则和while循环一样了.如果conditi ...
- cJSON
http://blog.csdn.net/wangchangshuai0010/article/details/18225423
- then方法
sendSMS(phoneNo).then(function(data) { var msg = (data && data['msg']) ? data['msg'] : '验证码已 ...
- 4.传统的MVC
通过document view设计,我们把应用程序的状态(clicktimes)从一个简单的类设计中抽取出来.下一个目标是抽取转化主要的事件(这个例子里面是鼠标点击之后释放)为应用程序逻辑从而改变应用 ...
- STL--C++中 destory() 和deallocate()以及delete函数的相关性和区别性,destorydeallocate
这里非常的绕口 需要仔细的来看看: destory(): 显示调用一个对象的析构函数 相当于释放一个对象需要释放的一些动态内存 为下次真正释放对象做准备 deallocate():真正的释放一个内存 ...
- 《Maven实战》笔记-8-构建部署Web项目
一.Web项目结构 1.显式指定Web项目打包方式为war: 2.默认目录 根据“约定大于配置”的规则,Web项目的类及资源文件默认位置为src/main/java和src/main/reso ...
- 《Maven实战》笔记-1-Maven使用入门
<Maven实战>徐晓斌 2011 机械工业出版社 一.介绍 1.名词 artifact:插件 极限编程XP 2.构建脚本: maven——pom.xml(Project Object ...
- .Net Core异步async/await探索
走进.NetCore的异步编程 - 探索 async/await 前言: 这段时间开始用.netcore做公司项目,发现前辈搭的框架通篇运用了异步编程方式,也就是async/await方式,作为一个刚 ...
- 根据Attribute值条件对XML文档进行修改
现手上有一个XML文档, 需要把"直接工序"改为"间接工序0". 你可以使用<对XML文档进行修改> http://www.cnblogs.com/ ...