logstash split插件的使用(将一个事件拆分成多个事件)
kafka中的原始数据格式(1条数据)
{
"body": {
"cwd": "/home/test/",
"monitor": {
"proc_num": 2,
"procs": [{
"cmd": "",
"cpu_usage_rate": 2.0,
"mem_usage_rate": 3.0,
"pid": 4976,
"procname": "test-name"
}, {
"cmd": "/home/test2",
"cpu_usage_rate": 5.0,
"mem_usage_rate": 6.0,
"pid": 4977,
"procname": "test-name2"
}],
"timestamp": 1547124214814
},
"os_tag": "Linux",
"system": {
"connection": {
"haddr": "00:50:56:B3:7E:7A",
"ip": "192.168.21.80",
"name": "ens160"
},
"cpu": ["Intel Xeon", "Intel Xeon", "Intel Xeon", "Intel Xeon"],
"memory": {
"swap_total": "7918841856",
"total": "15600787456"
},
"uname": "Linux Linux 3.10.0-862.el7.x86_64 x86_64 x86_64",
"vendor": "CentOS 7.5.1804"
}
},
"meta": {
"request_id": "3-14865"
}
}
logstash处理后的数据格式(2条数据)
{
"hostname": "test",
"procs": {
"mem_usage_rate": 2.0,
"cpu_usage_rate": 3.0,
"pid": 4976,
"cmd": "",
"procname": "test-name"
},
"@timestamp": "2019-01-11T02:08:57.225Z",
"memory": {
"total": "3975188480",
"swap_total": "4177522688"
},
"connection": {
"ip": "192.168.31.182",
"name": "ens160",
"haddr": "00:50:56:B3:7E:35"
},
"proc_num": 4
}
{
"hostname": "test",
"procs": {
"mem_usage_rate": 5.0,
"cpu_usage_rate": 6.0,
"pid": 4976,
"cmd": "test",
"procname": "test-name"
},
"connection": {
"ip": "192.168.31.182",
"name": "ens160",
"haddr": "00:50:56:B3:7E:35"
},
"proc_num": 4
}
logstash的配置
input {
kafka {
bootstrap_servers=> "192.168.31.92:9092,192.168.31.93:9092,192.168.31.94:9092"
group_id => "test_group"
topics =>"test_topic"
auto_offset_reset => "earliest"
type => "test_type"
consumer_threads => 1
codec => "json"
}
}
filter{
if !([body][monitor][procs]) {
drop { }
}
mutate {
remove_field => ["body[cwd]","body[os_tag]","body[system][filesystem]","body[system][cpu]","body[system][disk]",
"body[system][has_docker]","body[system][if]","body[system][uname]","body[system][vendor]","meta","url","body[configuration]"]
}
date {
match => ["body[monitor][timestamp]","UNIX_MS"]
remove_field => ["body[monitor][timestamp]"]
}
mutate {
add_field => {
"client_id" => "%{params[client_id]}"
"system" => "%{body[system]}"
"monitor" => "%{body[monitor]}"
}
remove_field => ["body","params"]
}
json {
source => "system"
remove_field => ["system"]
}
json {
source => "monitor"
remove_field => ["monitor"]
}
if ([procs]) {
split {
field => "procs"
}
}
}
output {
elasticsearch {
hosts => ["192.168.21.80:9200"]
index => "test_index"
codec => "json"
}
}
logstash split插件的使用(将一个事件拆分成多个事件)的更多相关文章
- 【jquery】【ztree】节点添加自定义按钮、编辑和删除事件改成自己定义事件
setting添加 edit: { drag: { isCopy: false, isMove: true }, enable: true,//设置是否处于编辑状态 showRemoveBtn: sh ...
- 切割数组 - 将一个数组拆分成多个长度为n的数组
有时候接口返回的数据很长,而前端显示需要分组显示这些数据,这个时候就需要将数组拆分: datas = [1,2,3,4,5,6,7,8,9,10,11,12,13,14,15]; var arrLen ...
- oracle将一个字段拆分成多个值 (regexp_substr函数)
select regexp_substr(p.attributename, '[^,]+',1,level) c1from tablename p connect by level <= len ...
- mysql将一个表拆分成多个表(一)(转载)
转载 直接根据数据量进行拆分 有一个5000条数据的表,要把它变成没1000条数据一个表的5等份. 假设:表名:xuesi 主键:kidxuesi共有5000条数据,kid从1到5000自动增长题目: ...
- Pycharm使用技巧:Split Vertically/Horizontally(垂直/水平拆分窗口)
Split Vertically或者Split Horizontally可以把当前编辑窗口垂直或者水平拆分成两个. 使用: 在编辑窗口中打开你要展示的两个文件(如图中的 "郭靖" ...
- ElasticSearch7.3学习(三十二)----logstash三大插件(input、filter、output)及其综合示例
1. Logstash输入插件 1.1 input介绍 logstash支持很多数据源,比如说file,http,jdbc,s3等等 图片上面只是一少部分.详情见网址:https://www.elas ...
- logstash过滤器插件filter详解及实例
1.logstash过滤器插件filter 1.1.grok正则捕获 grok是一个十分强大的logstash filter插件,他可以通过正则解析任意文本,将非结构化日志数据弄成结构化和方便查询的结 ...
- [Swift]LeetCode842. 将数组拆分成斐波那契序列 | Split Array into Fibonacci Sequence
Given a string S of digits, such as S = "123456579", we can split it into a Fibonacci-like ...
- logstash常用插件解析
官方地址:https://www.elastic.co/guide/en/logstash-versioned-plugins/current/index.html 配置文件写法: # 日志导入inp ...
随机推荐
- 关于knockout下拉多选值的应用
在最近的开发过程中,应用了一些关于knockout的下拉项目. 关于下拉多选的开发在这里做一个记录. 下面直接上代码 添加的时候,无需给初始值 --viewmodel function ViewMod ...
- Stripe支付对接
一.由于文档丢失原因,我就直接上代码了. 这个Stripe支付可以支持多个币种,我下面就采用"HDK"来参照支付先上一个支付效果图 提示:先上代码,在说明博主自己理解的流程. 一 ...
- docker 修改实例名称
docker 容器(服务)重命名只要一个命令就可以: docker rename 原容器名 新容器名 如:
- JPA或Hibernate中使用原生SQL实现分页查询、排序
发生背景:前端展示的数据需要来自A表和D表拼接,A表和D表根据A表的主键进行关联,D表的非主键字段关联C表的主键,根据条件筛选出符合的数据,并且根据A表的主键关联B表的主键(多主键)的条件,过滤A表中 ...
- ffmpeg 视频合并
/// <summary> /// 视频合并 /// </summary> /// <param name="File1">第一个视频地址< ...
- ArcEngine连接Oracle数据库
问题1: 最近写服务需要用ArcEngine连接Oracle数据库,以前连接数据库都会弹出一个窗体.然后填好之后就可以连接了,这样很麻烦. 代码如下: private bool ConnectToSd ...
- C语言之指针用法总结
C语言指针概述:1.计算机系统中,无论是存入或是取出数据都需要与内存单元打交道,物理器件通过地址编码寻找内存单元.2.地址编码是一种数据,C语言的指针类型正是为了表示这种计算机所特有的地址数据.3.存 ...
- rabbitmq系列(三)消息幂等性处理
一.springboot整合rabbitmq 我们需要新建两个工程,一个作为生产者,另一个作为消费者.在pom.xml中添加amqp依赖: <dependency> <groupId ...
- SpringCloud之Eureka(服务注册和服务发现基础篇)(二)
一:Eureka简介 Eureka是Spring Cloud Netflix的一个子模块,也是核心模块之一.用于云端服务发现,一个基于REST的服务,用于定位服务,以实现云端中间层服务发现和故障转移. ...
- 机器学习-特征工程-Feature generation 和 Feature selection
概述:上节咱们说了特征工程是机器学习的一个核心内容.然后咱们已经学习了特征工程中的基础内容,分别是missing value handling和categorical data encoding的一些 ...