需求:

目前的程序中都是基于log4j来实现日志的管理,想要获取日志中的一部分消息,展示给用户。

约束:

由于程序中除了自己开发的代码,还会有层层依赖的第三方jar中的日志输出。需要展示给用户的消息,也有部分包括在第三方的包中。不可能去修改第三方jar来获得消息,所以只能从Log4j本身的消息入手,获取log4j的消息来进行处理。

方案:

第一步,增加新的logger

 log4j.rootLogger=INFO, console

 log4j.appender.console=org.apache.log4j.ConsoleAppender
log4j.appender.console.layout=org.apache.log4j.PatternLayout
log4j.appender.console.layout.ConversionPattern=%d{yyyy-MM-dd HH:mm:ss,SSS} %-5p %-20c %X{key} %x - %m%n log4j.logger.hermes=INFO, hermes
log4j.appender.hermes=org.apache.log4j.ConsoleAppender
log4j.appender.hermes.layout=org.apache.log4j.PatternLayout
log4j.appender.hermes.layout.ConversionPattern=%X{key} %x %m%n log4j.logger.org.apache.flink.yarn=INFO, hermes

如上,第1行定义了一个全局的logger,这个没有疑义,所有的日志都会输出到这个logger。

关键是第7行,又定义了一个叫hermes的logger,它有一个同名的appender叫hermes,简化了他的layout,只是拿出必须的输出日志即可。注意这里有一个%X{key}的配置项,这里是为了拿到MDC的值,好区分这条消息是哪个session打印出来的。

第12行也很关键,将包org.apache.flink.yarn的日志都按照hermes是标准输出,这里是包名,当然也可以指定到具体的类名。

如此这样,对于包org.apache.flink.yarn中的日志,会打印两份,一份是以console的形式输出,一份是以hermes的形式输出。

当然,我们不希望在日志中见到两行实质上一样的内容,这就是第二步要做到事情。

第二步:截取消息

这里有两个方案:一个方案是自定义appender,获取消息;一个方案是获取指定的logger,获取消息。

方案1:自定义appender

 import org.apache.log4j.AppenderSkeleton;
import org.apache.log4j.LogManager;
import org.apache.log4j.spi.LoggingEvent;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory; public class AdapterAppender extends AppenderSkeleton {
@Override
protected void append(LoggingEvent loggingEvent) {
String message = this.layout.format(loggingEvent);
System.out.println("<<<<<<<<<<***********"+message+"***********>>>>>>>>>>");
} @Override
public void close() { } @Override
public boolean requiresLayout() {
return true;
}
}

自定义appender还是很简单的,只要继承AppenderSkeleton即可。其中的append方法就可以拿到日志消息,标准化之后就可以拿来用了。

当然,上面log4j的配置也就需要改下了:

log4j.appender.hermes=cn.123.flink.log.AdapterAppender

方案2:获取logger来获取消息

 import java.io.IOException;
import java.io.PipedReader;
import java.io.PipedWriter;
import java.io.Writer;
import java.util.Scanner; import org.apache.log4j.*; public class LogAppender extends Thread{ private PipedReader reader; public LogAppender(String appenderName) {
try {
Logger root = Logger.getLogger(appenderName);
// 获取子记录器的输出源
Appender appender = root.getAppender(appenderName);
// 定义一个未连接的输入流管道
reader = new PipedReader();
// 定义一个已连接的输出流管理,并连接到reader
Writer writer = new PipedWriter(reader);
// 设置 appender 输出流
((WriterAppender) appender).setWriter(writer);
}catch (IOException ioe){
ioe.printStackTrace();
}
} @Override
public void run() {
// 不间断地扫描输入流
Scanner scanner = new Scanner(reader);
// 将扫描到的字符流显示在指定的JLabel上
while (scanner.hasNextLine()) {
try {
String line = scanner.nextLine();
System.out.println("*****************************"+line);
//睡眠
Thread.sleep(100);
} catch (Exception ex) {
System.out.println("Exception from LogAppender:"+ex.getMessage());
}
}
}
}

对比上面的日志的配置,13行的构造函数就可以传入hermes来获取hermes这个logger。

参考了下面的文档:

http://logging.apache.org/log4j/1.2/apidocs/org/apache/log4j/PatternLayout.html

http://logging.apache.org/log4j/1.2/apidocs/org/apache/log4j/MDC.html

http://logging.apache.org/log4j/1.2/apidocs/org/apache/log4j/NDC.html

https://logging.apache.org/log4j/2.x/manual/thread-context.html

http://yshjava.iteye.com/blog/1325036

https://stackoverflow.com/questions/2763740/log4j-log-output-of-a-specific-class-to-a-specific-appender

https://stackoverflow.com/questions/5549838/get-live-log4j-messages

https://sysgears.com/articles/how-to-redirect-stdout-and-stderr-writing-to-a-log4j-appender/

基于log4j的消息流的实现之一消息获取的更多相关文章

  1. Storm概念学习系列之Stream消息流 和 Stream Grouping 消息流组

    不多说,直接上干货! Stream消息流是Storm中最关键的抽象,是一个没有边界的Tuple序列. Stream Grouping 消息流组是用来定义一个流如何分配到Tuple到Bolt. Stre ...

  2. Stream消息流 和 Stream Grouping 消息流组

  3. 基于log4j的消息流的实现之二消息传递

    在“基于log4j的消息流的实现之一消息获取”中获取日志消息的部分,修改如下: import org.apache.commons.collections.map.HashedMap; import ...

  4. [蓝牙] 6、基于nRF51822的蓝牙心率计工程消息流Log分析(详细)

    开机初始化Log Log编号 函数名   所在文件名 000001: main ..\main.c 000002: timers_init ..\main.c 000003: gpiote_init ...

  5. 开源一个自己造的轮子:基于图的任务流引擎GraphScheduleEngine

    GraphScheduleEngine是什么: GraphScheduleEngine是一个基于DAG图的任务流引擎,不同语言编写.运行于不同机器上的模块.程序,均可以通过订阅GraphSchedul ...

  6. BTARN 接收消息流以3A7为例

     1.RNIFReceive.aspx 页接收来自发起方的传入消息. (如果发起方是BizTalk则类似于:http://localhost/BTARNApp/RNIFSend.aspx?TPUrl ...

  7. 大数据平台消息流系统Kafka

    Kafka前世今生 随着大数据时代的到来,数据中蕴含的价值日益得到展现,仿佛一座待人挖掘的金矿,引来无数的掘金者.但随着数据量越来越大,如何实时准确地收集并分析如此大的数据成为摆在所有从业人员面前的难 ...

  8. IM系统-消息流化一些常见问题

    原创不易,求分享.求一键三连 之前说过IM系统的一些优化,但是在网络上传输数据对于数据的流化和反流化也是处理异常情况的重点环节,不处理好可能会出现一些消息发送成功,但是解析失败的情况,本文就带大家来一 ...

  9. 基于SQL Server 2008 Service Broker构建企业级消息系统

    注:这篇文章是为InfoQ 中文站而写,文章的地址是:http://www.infoq.com/cn/articles/enterprisemessage-sqlserver-servicebroke ...

随机推荐

  1. 《Linux 性能优化实战—倪朋飞 》学习笔记 CPU 篇

    平均负载 指单位时间内,系统处于可运行状态和不可中断状态的平均进程数,即平均活跃进程数 可运行状态:正在使用CPU或者正在等待CPU 的进程,也就是我们常用 ps 命令看到的,处于 R 状态 (Run ...

  2. JavaScript--动态添加元素

    在网页中,使用JavaScript动态创建元素的方式有三种: 1.document.write() 2.Element.innerHTML 3.document.createElement() 在上述 ...

  3. springmvc请求数据的流程。

    验证了我说的,从model层中拿来的数据,不管什么类型,都是通过隐含模型,中转,放入request中的.除非你特意把这些数据放到session域中 流程含义解释:(来自网友)(1)HTTP请求到达we ...

  4. 处理laravel表单提交默认将空值转为null的问题

    比如表单提交,如果我们提交了这个字段,但是这个字段为空字符串.在Laravel中会自动转义成Null. 处理这个问题,直到找到中间件\vendor\laravel\framework\src\Illu ...

  5. java.lang.UnsupportedOperationException: seccomp unavailable: CONFIG_SECCOMP not compiled into kernel, CONFIG_SECCOMP and CONFIG_SECCOMP_FILTER are needed

    错误描述: ElasticSearch集群启动错误,错误的原因是:因为Centos6不支持SecComp,而ES默认bootstrap.system_call_filter为true进行检测,所以导致 ...

  6. Qt on Android 蓝牙通信开发

    版权声明:本文为MULTIBEANS ORG研发跟随文章,未经MLT ORG允许不得转载. 最近做项目,需要开发安卓应用,实现串口的收发,目测CH340G在安卓手机上非常麻烦,而且驱动都是Java版本 ...

  7. Python学习手册之控制结构(一)

    在上一篇文章中,我们对 Python 进行了简单介绍和介绍了 Python 的基本语法,现在我们继续介绍 Python 控制结构. 查看上一篇文章请点击:https://www.cnblogs.com ...

  8. (数据科学学习手札09)系统聚类算法Python与R的比较

    上一篇笔者以自己编写代码的方式实现了重心法下的系统聚类(又称层次聚类)算法,通过与Scipy和R中各自自带的系统聚类方法进行比较,显然这些权威的快捷方法更为高效,那么本篇就系统地介绍一下Python与 ...

  9. win7 下安装oracle 11g出现错误: 启动服务出现错误 找不到服务OracleMTSRecoveryService

    这种错误是在多次安装oracle都没有成功的情况下发生的. 正确安装oracle,是有前提条件的 1,安装最新的jdk,不是jre!!(并配好环境变量,在cmd中测试 java -version与ja ...

  10. Spark Streaming实时处理应用

    1 框架一览   事件处理的架构图如下所示. 2 优化总结   当我们第一次部署整个方案时,kafka和flume组件都执行得非常好,但是spark streaming应用需要花费4-8分钟来处理单个 ...