Logstash集成GaussDB(高斯DB)数据到Elasticsearch
GaussDB 简介
GaussDB 数据库分为 GaussDB T 和 GaussDB A,分别面向 OLTP 和 OLAP 的业务用户。
GaussDB T 数据库是华为公司全自研的分布式数据库,支持x86和华为鲲鹏硬件架构。基于创新性数据库内核,提供高并发事务实时处理能力、两地三中心金融级高可用能力和分布式高扩展能力。
GaussDB A 是一款具备分析及混合负载能力的分布式数据库,支持x86和华为鲲鹏硬件架构,支持行存储与列存储,提供PB级数据分析能力、多模分析能力和实时处理能力,用于数据仓库、数据集市、实时分析、实时决策和混合负载等场景,广泛应用于金融、政府、电信等行业核心系统。
Logstash 的 jdbc input plugin
参考 Logstash的 Jdbc input plugin 的官方文档,该插件可以通过JDBC接口将任何数据库中的数据导入 Logstash。周期性加载或一次加载,每一行是一个 event,列转成 filed。我们先解读下文档里提到的重要配置项。
jdbc_driver_library:JDBC驱动包路径。
jdbc_driver_class:JDBC驱动程序类。
jdbc_connection_string:JDBC连接串。
jdbc_user:数据库用户名。
jdbc_password:数据库用户口令。
statement_filepath:SQL语句所在文件路径。
scheduler:调度计划。
以上参数已经支持了周期性加载或一次性加载。如果想按字段的自增列或时间戳来集成数据,还需要以下参数:
sql_last_value:这个参数内置在sql语句里。作为条件的变量值。
last_run_metadata_path:sql_last_value 上次运行值所在的文件路径。
use_column_value:设置为时true时,将定义的 tracking_column 值用作 :sql_last_value。默认false。
tracking_column:值设置为将被跟踪的列。
tracking_column_type:跟踪列的类型。目前仅支持数字和时间戳。
record_last_run:上次运行 sql_last_value 值是否保存到 last_run_metadata_path。默认true。
clean_run:是否应保留先前的运行状态。默认false。
另外如果想使用预编译语句,语句里用?作为占位符,再增加以下参数:
use_prepared_statements:设置为 true 时,启用预编译语句。
prepared_statement_name:预编译语句名称。
prepared_statement_bind_values:数组类型,存放绑定值。:sql_last_value 可以作为预定义参数。
参考:https://www.elastic.co/guide/en/logstash/7.5/plugins-inputs-jdbc.html
对接 GaussDB T
按每分钟一次频率的周期性来加载 GaussDB T 的会话信息到 Elasticsearch 中,input 区域的配置如下:
input {
jdbc {
jdbc_connection_string => "jdbc:zenith:@vip:40000"
jdbc_user => "omm"
jdbc_password => "omm_password"
jdbc_driver_library => "/opt/gs/com.huawei.gauss.jdbc.ZenithDriver-GaussDB_100_1.0.1.SPC2.B003.jar"
jdbc_driver_class => "com.huawei.gauss.jdbc.ZenithDriver"
statement_filepath => "/opt/statement_filepath/gs_100_session.sql"
schedule => "*/1 * * * *"
}
}
statement_filepath 路径文件里配置的sql如下:
select * from dv_sessions
启动 logstash,可以看到logstash 日志中显示有select * from dv_sessions的信息
对接 GaussDB A
按字段的时间戳来增量加载数据,注意 GaussDB A 的驱动和 GaussDB T 是不同的。input 区域的配置如下:
input {
jdbc {
jdbc_connection_string => "jdbc:postgresql://vip:25308/postgres"
jdbc_user => "monitor"
jdbc_password => "monitor_password"
jdbc_driver_library => "/opt/gsdriver/gsjdbc4.jar"
jdbc_driver_class => "org.postgresql.Driver"
statement_filepath => "/opt/statement_filepath/gauss_active_session.sql"
schedule => "*/1 * * * *"
record_last_run => "true"
use_column_value => "true"
tracking_column => "sample_time"
tracking_column_type => "timestamp"
clean_run => "false"
last_run_metadata_path => "/opt/last_run_metadata_path/gauss_last_sample_time"
}
}
statement_filepath 路径文件里配置的sql如下,注意里面的预定义变量 :sql_last_value。
select clustername,coorname,sample_time,datid,datname,pid,usesysid,usename,application_name,abbrev(client_addr) AS client_addr,client_hostname,client_port,backend_start,xact_start,query_start,state_change,waiting,enqueue,state,resource_pool,query_id,query from monitor.ash_pg_stat_activity_r where sample_time > :sql_last_value
last_run_metadata_path 路径下的文件内容:
--- 2020-02-05 12:10:00.000000000 +08:00
启动 logstash,可以看到 logstash 日志,注意 :sql_last_value的地方
数据 output 到 Elasticsearch
logstash 的 output 区域的配置如下:
output {
elasticsearch {
hosts => ["https://vip:9200"]
index => "gauss_active_session-%{+YYYY.MM.dd}"
document_type => "gauss_active_session"
user => "elastic"
password => "elastic_password"
ssl => true
cacert => "../es_client-ca.cer"
}
}
登入 kibana 查看,按每分钟增量加载的会话表数据已经集成到了 elasticsearch,后续就可以开始做数据分析和可视化了。
文章转载自:https://mp.weixin.qq.com/s/EJJAGVfIFbgKqOSjbrAGTA
Logstash集成GaussDB(高斯DB)数据到Elasticsearch的更多相关文章
- 使用logstash同步mysql 多表数据到ElasticSearch实践
参考样式即可,具体使用配置参数根据实际情况而定 input { jdbc { jdbc_connection_string => "jdbc:mysql://localhost/数据库 ...
- Logstash 6.4.3 导入 csv 数据到 ElasticSearch 6.4.3
本文实践最新版的Logstash从csv文件导入数据到ElasticSearch. 本文目录: 1.初始化ES.Kibana.Logstash 2.安装logstash文件导入.过滤器等插件 3.配置 ...
- 使用Logstash同步数据至Elasticsearch,Spring Boot中集成Elasticsearch实现搜索
安装logstash.同步数据至ElasticSearch 为什么使用logstash来同步,CSDN上有一篇文章简要的分析了以下几种同步工具的优缺点:https://blog.csdn.net/la ...
- elasticsearch -- Logstash实现mysql同步数据到elasticsearch
配置 安装插件由于这里是从mysql同步数据到elasticsearch,所以需要安装jdbc的入插件和elasticsearch的出插件:logstash-input-jdbc.logstash-o ...
- 如何通过 Docker 部署 Logstash 同步 Mysql 数据库数据到 ElasticSearch
在开发过程中,我们经常会遇到对业务数据进行模糊搜索的需求,例如电商网站对于商品的搜索,以及内容网站对于内容的关键字检索等等.对于这些高级的搜索功能,显然数据库的 Like 是不合适的,通常我们采用 E ...
- Logstash学习之路(四)使用Logstash将mysql数据导入elasticsearch(单表同步、多表同步、全量同步、增量同步)
一.使用Logstash将mysql数据导入elasticsearch 1.在mysql中准备数据: mysql> show tables; +----------------+ | Table ...
- Logstash : 从 SQL Server 读取数据
有些既存的项目把一部分日志信息写入到数据库中了,或者是由于其它的原因我们希望把关系型数据库中的信息读取到 elasticsearch 中.这种情况可以使用 logstash 的 jdbc input ...
- spring与logstash整合,并将数据传输到Elasticsearch
logstash是一个开源的数据收集引擎,支持各种输入选择,能够同时从多个来源采集数据,将数据转发到想存储的“库”中,例如,可以转发存储到Elasticsearch,也可以转发到kafka等消息中间件 ...
- 华为高斯DB(for MySQL)搭建演示
产品架构 云数据库 GaussDB(for MySQL)整体架构自下向上分为三层. 存储层: 基于华为DFV存储,提供分布式.强一致和高性能的存储能力,此层来保障数据的可靠性以及横向扩展能力. 存储抽 ...
随机推荐
- 【最全】CSS盒子(div)水平垂直居中居然还有这种方式
最全的CSS盒子(div)水平垂直居中布局,对CSS 布局掌握程度决定你在 Web 开发中的开发页面速度. 相对于屏幕 方法一:利用定位 <div class="box"&g ...
- Oracle,SAP等暂停俄所有业务,国产化刻不容缓,无代码又该如何发力
国产化刻不容缓 "如果不是自主可控的产品,我们这个行业可能有一天就瘫痪了."这句话最早是中国工程院院士倪先生预言的.然而,2022年的今天,由于俄乌战争,包括Oracle.SAP等 ...
- 对象数组的foreach循环操作和集合容器
ForEach标签可以循环数组,list,map集合 采用 foreach循环遍历 ,并每次循环允许执行一次回调函数 for (容器中元素类型 临时变量: 容器变量) { System.out.pri ...
- 匿名对象和private关键字
匿名内部类 没有名次的对象我们成为匿名对象 new Dog(); new Demo02().change(new Student("...")); 匿名对象的特点 如果对象只会被使 ...
- YII类的映射表机制
<?php /** * Created by PhpStorm. * Date: 2016/5/25 * Time: 19:09 * * YII的类的映射表 */ namespace front ...
- WPF开发随笔收录-WriteableBitmap绘制高性能曲线图
一.前言 之前分享过一期关于DrawingVisual来绘制高性能曲线的博客,今天再分享一篇通过另一种方式来绘制高性能曲线的方法,也就是通过WriteableBitmap的方式:具体的一些细节这里就不 ...
- 8. 利用Ansible快速构建MGR | 深入浅出MGR
GreatSQL社区原创内容未经授权不得随意使用,转载请联系小编并注明来源. 目录 1. 安装ansbile 2. 配置ansible 3. 建立ssh信任 4. 测试ansible 5. 使用ans ...
- mybatis 04: mybatis对象分析 + 测试代码简化 + 配置优化
MyBatis对象分析 测试代码示例 package com.example.test; import com.example.pojo.Student; import org.apache.ibat ...
- Linux 05 口令字文件
参考源 https://www.bilibili.com/video/BV187411y7hF?spm_id_from=333.999.0.0 版本 本文章基于 CentOS 7.6 概述 由于 /e ...
- 高效简单的.Net数据库“访问+操作”技术
本文技术源自外企,并已在多个世界500强大型项目开发中运用. 本文适合有初步C#.Linq.Sql知识的同学阅读. 相关技术在IDataAccess接口中提供. IDataAccess所在的命名空间是 ...