因为项目需求,需要保存项目日志。项目的并发量不大,所以这里直接通过flume保存到oracle

源码地址:https://github.com/jaxlove/fks/tree/master/src/main/java/com

日志系统设置

  url:以select、save、update、remove开头。

  通过filter记录请求功的url。格式为json格式,字段包括channel(来源渠道web、wap、app等)、operate_type(操作类型)、first_model(菜单第一模块)、second_model(菜单第二模块)、data(url传递的参数)、ip(请求者ip)、account_id(用户账号id)、time(时间,有系统自动生成),url(请求的url地址)、remark(自定义备注)

  表结构相同。

flume配置:

  由于flume没有直接sink到oracle的jar包,这里自己自定义sink,偷懒,直接通过mybatis保存到数据库。。。

  flume在conf里配置设置

a1.sinks.k1.type = com.myflume.OracleSink
a1.sinks.k1.jdbc_url = jdbc:oracle:thin:@ip:port:实例名
a1.sinks.k1.jdbc_username = username
a1.sinks.k1.jdbc_password = password
#设置多少跳数据提交一次。数据量大,数据精度要求不高可以设置高一点
a1.sinks.k1.jdbc_batchsize = 5
#需要保存的表名
a1.sinks.k1.jdbc_tablename =tablename

java代码的实现说明:

1、获取日志的 { 与 } 之间的数据,将其转为json。

2、json的key必须和table的字段相同。只有这样才能保存,否则该字段不会入库。

3、由于java无法识别日志过多的数据格式,所以只能保存数字与字符串类型。同样数据也必须设置为相同类型。否则会报错。

以下是代码:

com.myflume.OracleSink
package com.myflume;

import com.common.SpringContextHolder;
import com.service.LogInfoService;
import net.sf.json.JSONObject;
import org.apache.commons.lang.StringUtils;
import org.apache.flume.*;
import org.apache.flume.conf.Configurable;
import org.apache.flume.sink.AbstractSink;
import org.apache.tomcat.jdbc.pool.DataSource;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.context.support.ClassPathXmlApplicationContext; import java.util.ArrayList;
import java.util.List;
import java.util.Map; /**
* 自定义sink
*
* @author wdj on 2018/6/8
*/
public class OracleSink extends AbstractSink implements Configurable{ private Logger logger = LoggerFactory.getLogger(getClass()); private Integer tryCount = 0; //MAX_TRY_COUNT 次尝试提交之后若数据个数还未达到batchSize,则试着提交
private final Integer MAX_TRY_COUNT = 2; private String jdbcurl;
private String username;
private String password;
private Integer batchSize;
private String tablename;
private DataSource dataSource;
LogInfoService logInfoService;
private List<Map<String,Object>> datas = new ArrayList<>(); // 获取flume的配置参数
@Override
public void configure(Context context) {
ClassPathXmlApplicationContext applicationContext = new ClassPathXmlApplicationContext(
new String[] { "classpath:spring-context.xml" });
applicationContext.start();
    //通过spring管理bean
logInfoService = SpringContextHolder.getBean("logInfoService");
dataSource = SpringContextHolder.getBean("dataSource");
jdbcurl=context.getString("jdbc_url");
username=context.getString("jdbc_username");
password=context.getString("jdbc_password");
batchSize = context.getInteger("jdbc_batchsize",10);
tablename = context.getString("jdbc_tablename");
logger.info("初始化数据 ==== tablename:"+tablename+";jdbcurl:"+jdbcurl+";username:"+username+";batchSize"+batchSize);
} // Initialize the connection to the external repository (e.g. HDFS) that
// this Sink will forward Events to
@Override
public synchronized void start() {
if(!StringUtils.isBlank(jdbcurl) && !StringUtils.isBlank(username) && !StringUtils.isBlank(password)){
dataSource = new DataSource();
dataSource.setUrl(jdbcurl);
dataSource.setUsername(username);
dataSource.setPassword(password);
dataSource.setInitialSize(5);
dataSource.setMaxActive(20);
dataSource.setMinIdle(5);
dataSource.setMaxIdle(20);
dataSource.setMaxWait(30000);
}
} // Disconnect from the external respository and do any
// additional cleanup
@Override
public synchronized void stop() {
logger.info("sink关闭。。。。。。。。保存缓存中的剩余数据");
if(datas != null && !datas.isEmpty()){
logInfoService.save(tablename,datas);
logger.info("提交"+datas.size()+"条数据");
}
dataSource.close();
super.stop();
} @Override
public Status process() throws EventDeliveryException {
Status status = null;
// Start transaction
Channel ch = getChannel();
Transaction txn = ch.getTransaction();
txn.begin();
try {
if(StringUtils.isBlank(tablename)){
throw new Exception("tablename不能为空!");
}
// This try clause includes whatever Channel operations you want to do
long processedEvent = 0;
for (; processedEvent < batchSize; processedEvent++) {
Event event = ch.take();
byte[] eventBody;
if(event != null){
eventBody = event.getBody();
String line= new String(eventBody,"UTF-8");
if (line.length() > 0 ){
int start = line.indexOf('{');
int end = line.lastIndexOf('}');
if(start != -1 && end!= -1){
String dataStr = line.substring(start,end+1);
Map<String,Object> map = JSONObject.fromObject(dataStr);
datas.add(map);
}
}
}else{
logger.info("even为空,回退。。。");
status = Status.BACKOFF;
break;
}
}
boolean canCommit = (status != Status.BACKOFF && datas!=null && !datas.isEmpty())
|| (tryCount >= MAX_TRY_COUNT && datas!=null && !datas.isEmpty());
// 将数据复制到临时变量,将data去空,当时若flume在datas浮空后未保存数据就关闭,则还是会丢失一部分数据
List<Map<String,Object>> tem = new ArrayList<>();
tem.addAll(datas);
datas = new ArrayList<>();
if(canCommit){
logInfoService.save(tablename,tem);
logger.info("提交"+datas.size()+"条数据");
status = Status.READY;
tryCount=0;
txn.commit();
}else if(status == Status.BACKOFF){
txn.rollback();
tryCount++;
}else{
logger.info("数据为空!");
status = Status.BACKOFF;
txn.rollback();
tryCount=0;
}
} catch (Exception e) {
txn.rollback();
// Log exception, handle individual exceptions as needed
logger.error("保存数据出错:",e);
status = Status.BACKOFF;
}
txn.close();
return status;
} public static void main(String[] args){
OracleSink oracleSink = new OracleSink();
oracleSink.configure(null);
oracleSink.start();
try {
oracleSink.process();
} catch (EventDeliveryException e) {
e.printStackTrace();
} }
}
com.service.LogInfoService
package com.service;

import com.dao.LogInfoDao;
import com.entity.ColumnDataBean;
import org.apache.commons.lang.StringUtils;
import org.springframework.stereotype.Service; import javax.annotation.Resource;
import java.util.*; /**
* description
*
* @author wdj on 2018/6/9
*/
@Service
public class LogInfoService { @Resource
LogInfoDao logInfoDao; public void save(String tablename,List<Map<String,Object>> datas){
//除了id所有列
List<Map<String,String>> columnList = logInfoDao.getColumn(tablename.toUpperCase());
//使用linkedHashMap保存原有的顺序
Map<String,String> columns = new LinkedHashMap();
for (Map<String, String> stringStringMap : columnList) {
columns.put(stringStringMap.get("COLUMN_NAME"),getJdbcType(stringStringMap.get("DATA_TYPE")));
}
List<Map> dataMap = new ArrayList<>();
for (Map<String, Object> data : datas) {
data =transformUpperCase(data);
Map map = new LinkedHashMap();
for (String s : columns.keySet()) {
ColumnDataBean dataBean = new ColumnDataBean();
dataBean.setValue(data.get(s));
dataBean.setType(columns.get(s));
//保存字段值,及字段类型
map.put(s,dataBean);
}
dataMap.add(map);
}
logInfoDao.save(tablename,dataMap);
} /**
* 将map的key转为大写
* @param orgMap
* @return
*/
public Map<String, Object> transformUpperCase(Map<String, Object> orgMap) {
Map<String, Object> resultMap = new HashMap<>(); if (orgMap == null || orgMap.isEmpty()) {
return resultMap;
} Set<String> keySet = orgMap.keySet();
for (String key : keySet) {
String newKey = key.toUpperCase(); resultMap.put(newKey, orgMap.get(key));
}
return resultMap;
} /**
* 根据数据库类型,获取jdbcType,粗略版
* @param dataSourceType
* @return
*/
public String getJdbcType(String dataSourceType){
if(StringUtils.isBlank(dataSourceType)){
return "VARCHAR";//默认字符串
}else if(dataSourceType.indexOf("TIMESTAMP")>-1){
return "TIMESTAMP";
}else if(dataSourceType.indexOf("CHAR")>-1){
return "VARCHAR";
}else if(dataSourceType.indexOf("NUMBER")>-1){
return "NUMERIC";
}else{
return "VARCHAR";
}
} }
ColumnDataBean就俩个参数,private Object value;private String type;不粘代码了。(PS一下,本来打算直接用map的。但是在dao的save方法里,通过c[VALUE]和c[KEY]只能获取map中固定的一个,不知道是为什么)

dao实现的xml

<mapper namespace="com.dao.LogInfoDao">

    <select id="getColumn" resultType="map">
select COLUMN_NAME,DATA_TYPE from USER_TAB_COLUMNS WHERE TABLE_NAME=#{tablename} and COLUMN_NAME !='ID'
</select> <insert id="save">
insert into ${tablename}
select * from
<foreach collection="data" item="d" open="(" close=")" separator="union all">
select sys_guid(),
<foreach collection="d" index="k" item="c" separator=",">
#{c.value,jdbcType=${c.type}} as ${k}
</foreach>
from dual
</foreach>
</insert> </mapper>

over!byebye,继续努力!


 

flume收集日志直接sink到oracle数据库的更多相关文章

  1. 配置好Nginx后,通过flume收集日志到hdfs(记得生成本地log时,不要生成一个文件,)

    生成本地log最好生成多个文件放在一个文件夹里,特别多的时候一个小时一个文件 配置好Nginx后,通过flume收集日志到hdfs 可参考flume的文件 用flume的案例二 执行的注意点 avro ...

  2. ELK收集日志到mysql数据库

    场景需求 在使用ELK对日志进行收集的时候,如果需要对数据进行存档,可以考虑使用数据库的方式.为了便于查询,可以同时写一份数据到Elasticsearch 中. 环境准备 CentOS7系统: 192 ...

  3. nginx日志切割并使用flume-ng收集日志

    nginx的日志文件没有rotate功能.如果你不处理,日志文件将变得越来越大,还好我们可以写一个nginx日志切割脚本来自动切割日志文件.第一步就是重命名日志文件,不用担心重命名后nginx找不到日 ...

  4. Oracle数据库的后备和恢复————关于检查点的一些知识

    当我们使用一个数据库时,总希望数据库的内容是可靠的.正确的,但由于计算机系统的故障(硬件故障.软件故障.网络故障.进程故障和系统故障)影响数据库系统的操作,影响数据库中数据的正确性,甚至破坏数据库,使 ...

  5. ELK收集日志到mysql

    场景需求 在使用ELK对日志进行收集的时候,如果需要对数据进行存档,可以考虑使用数据库的方式.为了便于查询,可以同时写一份数据到Elasticsearch 中. 环境准备 CentOS7系统: 192 ...

  6. Oracle数据库的入门之一

    Oracle的介绍: Oracle Database,又名Oracle RDBMS,或简称Oracle.是甲骨文公司的一款关系数据库管理系统.它是在数据库领域一直处于领先地位的产品.可以说Oracle ...

  7. nbu异地备份实施前,数据收集日志

    1.修改bp.conf配置文件显示重删率 BPDBJOBS_COLDEFS = JOBID 5 true BPDBJOBS_COLDEFS = TYPE 7 false BPDBJOBS_COLDEF ...

  8. Oracle 数据库备份实战

    最近公司的客户希望使用oracle数据库,所以我们只好将数据从mysql数据库迁移到oracle数据库,并对oracle数据库制定了一个备份策略,之前虽然对oracle很熟悉,但做备份策略还是第一次, ...

  9. C#实现多级子目录Zip压缩解压实例 NET4.6下的UTC时间转换 [译]ASP.NET Core Web API 中使用Oracle数据库和Dapper看这篇就够了 asp.Net Core免费开源分布式异常日志收集框架Exceptionless安装配置以及简单使用图文教程 asp.net core异步进行新增操作并且需要判断某些字段是否重复的三种解决方案 .NET Core开发日志

    C#实现多级子目录Zip压缩解压实例 参考 https://blog.csdn.net/lki_suidongdong/article/details/20942977 重点: 实现多级子目录的压缩, ...

随机推荐

  1. 【转】Qt编写串口通信程序全程图文讲解

    本文章原创于www.yafeilinux.com 转载请注明出处. (说明:我们的编程环境是windows xp下,在Qt Creator中进行,如果在Linux下或直接用源码编写,程序稍有不同,请自 ...

  2. vuejs2项目开发实战视频教程

    0.课程大纲 一.点餐系统(移动) 1.0.课件 1.1.项目初始化_首页顶部 1.2.首页列表_底部导航 1.3.商家顶部_商家优惠信息弹层 1.4.商品主体_类别菜单 1.5.购物车操作_商品信息 ...

  3. 用socket.io实现websocket的一个简单例子

    socket.io 是基于 webSocket 构建的跨浏览器的实时应用. 逛博客发现几个比较好的 一.用socket.io实现websocket的一个简单例子 http://biyeah.iteye ...

  4. 把文档中的数据取出并插入到excel中

    from xlrd import open_workbookfrom xlutils.copy import copy jsonfile=r'C:\Users\Administrator\Deskto ...

  5. SpringMVC整合Springfox-Swagger

    https://www.jianshu.com/p/ab10860945c3 验证通过 关于Swagger的简介就不占篇幅了... 本文使用的Springfox-Swagger版本为2.8.0 要整合 ...

  6. PCL已有点类型介绍和增加自定义的点类型

    博客转载自:http://www.pclcn.org/study/shownews.php?lang=cn&id=265 本小节不仅解释如何增加你自己的PointT点类型,也介绍了PCL中的模 ...

  7. golang实现生产者消费者模型

    生产者消费者模型分析 操作系统中的经典模型,由若干个消费者和生产者,消费者消耗系统资源,生产者创造系统资源,资源的数量要保持在一个合理范围(小于数量上限,大约0).而消费者和生产者是通过并发或并行方式 ...

  8. Java集合(0):概述

    下面是一个Java集合的简化图,我们可以看出,集合分Collection和Map两大部分: 接下来分别以下面几个章节介绍Java集合: Java集合(1):Collections工具类中的static ...

  9. something about gdb

    1 gdb 基础命令 b(break):    添加断点 r(run):  重头开始运行程序 n(next): 下一步 c(continue):  程序继续运行,直到下一处断点,或者程序运行到结束 q ...

  10. 感知器做二分类的原理及python实现

    本文目录: 1. 感知器 2. 感知器的训练法则 3. 梯度下降和delta法则 4. python实现 1. 感知器[1] 人工神经网络以感知器(perceptron)为基础.感知器以一个实数值向量 ...