kafka log4j配置
kafka日志文件分为5种类型,依次为:controller,kafka-request,server,state-change,log-cleaner,不同类型log数据,写到不同文件中:
区别于config/server.properties中的log.dirs参数。
1: # Licensed to the Apache Software Foundation (ASF) under one or more2: # contributor license agreements. See the NOTICE file distributed with3: # this work for additional information regarding copyright ownership.4: # The ASF licenses this file to You under the Apache License, Version 2.05: # (the "License"); you may not use this file except in compliance with6: # the License. You may obtain a copy of the License at7: #8: # http://www.apache.org/licenses/LICENSE-2.09: #10: # Unless required by applicable law or agreed to in writing, software11: # distributed under the License is distributed on an "AS IS" BASIS,12: # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.13: # See the License for the specific language governing permissions and14: # limitations under the License.15:16: kafka.logs.dir=logs17:18: log4j.rootLogger=INFO, stdout19:20: log4j.appender.stdout=org.apache.log4j.ConsoleAppender21: log4j.appender.stdout.layout=org.apache.log4j.PatternLayout22: log4j.appender.stdout.layout.ConversionPattern=[%d] %p %m (%c)%n23:24: log4j.appender.kafkaAppender=org.apache.log4j.DailyRollingFileAppender25: log4j.appender.kafkaAppender.DatePattern='.'yyyy-MM-dd-HH26: log4j.appender.kafkaAppender.File=${kafka.logs.dir}/server.log27: log4j.appender.kafkaAppender.layout=org.apache.log4j.PatternLayout28: log4j.appender.kafkaAppender.layout.ConversionPattern=[%d] %p %m (%c)%n29:30: log4j.appender.stateChangeAppender=org.apache.log4j.DailyRollingFileAppender31: log4j.appender.stateChangeAppender.DatePattern='.'yyyy-MM-dd-HH32: log4j.appender.stateChangeAppender.File=${kafka.logs.dir}/state-change.log33: log4j.appender.stateChangeAppender.layout=org.apache.log4j.PatternLayout34: log4j.appender.stateChangeAppender.layout.ConversionPattern=[%d] %p %m (%c)%n35:36: log4j.appender.requestAppender=org.apache.log4j.DailyRollingFileAppender37: log4j.appender.requestAppender.DatePattern='.'yyyy-MM-dd-HH38: log4j.appender.requestAppender.File=${kafka.logs.dir}/kafka-request.log39: log4j.appender.requestAppender.layout=org.apache.log4j.PatternLayout40: log4j.appender.requestAppender.layout.ConversionPattern=[%d] %p %m (%c)%n41:42: log4j.appender.cleanerAppender=org.apache.log4j.DailyRollingFileAppender43: log4j.appender.cleanerAppender.DatePattern='.'yyyy-MM-dd-HH44: log4j.appender.cleanerAppender.File=${kafka.logs.dir}/log-cleaner.log45: log4j.appender.cleanerAppender.layout=org.apache.log4j.PatternLayout46: log4j.appender.cleanerAppender.layout.ConversionPattern=[%d] %p %m (%c)%n47:48: log4j.appender.controllerAppender=org.apache.log4j.DailyRollingFileAppender49: log4j.appender.controllerAppender.DatePattern='.'yyyy-MM-dd-HH50: log4j.appender.controllerAppender.File=${kafka.logs.dir}/controller.log51: log4j.appender.controllerAppender.layout=org.apache.log4j.PatternLayout52: log4j.appender.controllerAppender.layout.ConversionPattern=[%d] %p %m (%c)%n53:54: # Turn on all our debugging info55: #log4j.logger.kafka.producer.async.DefaultEventHandler=DEBUG, kafkaAppender56: #log4j.logger.kafka.client.ClientUtils=DEBUG, kafkaAppender57: #log4j.logger.kafka.perf=DEBUG, kafkaAppender58: #log4j.logger.kafka.perf.ProducerPerformance$ProducerThread=DEBUG, kafkaAppender59: #log4j.logger.org.I0Itec.zkclient.ZkClient=DEBUG60: log4j.logger.kafka=INFO, kafkaAppender61:62: log4j.logger.kafka.network.RequestChannel$=WARN, requestAppender63: log4j.additivity.kafka.network.RequestChannel$=false64:65: #log4j.logger.kafka.network.Processor=TRACE, requestAppender66: #log4j.logger.kafka.server.KafkaApis=TRACE, requestAppender67: #log4j.additivity.kafka.server.KafkaApis=false68: log4j.logger.kafka.request.logger=WARN, requestAppender69: log4j.additivity.kafka.request.logger=false70:71: log4j.logger.kafka.controller=TRACE, controllerAppender72: log4j.additivity.kafka.controller=false73:74: log4j.logger.kafka.log.LogCleaner=INFO, cleanerAppender75: log4j.additivity.kafka.log.LogCleaner=false76:77: log4j.logger.state.change.logger=TRACE, stateChangeAppender78: log4j.additivity.state.change.logger=false.csharpcode, .csharpcode pre
{
font-size: small;
color: black;
font-family: consolas, "Courier New", courier, monospace;
background-color: #ffffff;
/*white-space: pre;*/
}
.csharpcode pre { margin: 0em; }
.csharpcode .rem { color: #008000; }
.csharpcode .kwrd { color: #0000ff; }
.csharpcode .str { color: #006080; }
.csharpcode .op { color: #0000c0; }
.csharpcode .preproc { color: #cc6633; }
.csharpcode .asp { background-color: #ffff00; }
.csharpcode .html { color: #800000; }
.csharpcode .attr { color: #ff0000; }
.csharpcode .alt
{
background-color: #f4f4f4;
width: 100%;
margin: 0em;
}
.csharpcode .lnum { color: #606060; }
kafka log4j配置的更多相关文章
- Flume学习 & Kafka & Storm 等 & Log4J 配置
正在学习这篇文章: http://blog.csdn.net/ymh198816/article/details/51998085 和工作中接触的电商.订单.分析,可以结合起来. 开宗明义,这幅图片: ...
- 使用log4j配置不同文件输出不同内容
敲代码中很不注意写日志,虽然明白很重要.今天碰到记录日志,需要根据内容分别输出到不同的文件. 参考几篇文章: 感觉最详细:http://blog.csdn.net/azheng270/article/ ...
- log4j 配置
给java项目添加log4j日志: 1.下载log4j jar包,放入lib目录, 导入项目中 2.创建log4j.properties 文件 目录 Src 3.在需要使用输出的类中使用 priva ...
- log4j配置日志文件log4j.appender.R.File相对路径方法
方法一. 解决的办法自然是用相对路径代替绝对路径,其实log4j的FileAppender本身就有这样的机制,如:log4j.appender.logfile.File=${WORKDIR}/logs ...
- paip.Log4j配置不起作用的解决
paip.Log4j配置不起作用的解决 1.jar包里的log4j配置 看累挂jar,真的有个" webservices-rt.jar\com\sun\org\apache\xml\inte ...
- Log4j配置全说明
转载:http://zhangjunhd.blog.51cto.com/113473/21014/ 1.Log4j简介 Log4j是Apache的一个开源项目,它允许开发者以任意间隔输出日志信息.Lo ...
- Kafka 安装配置 windows 下
Kafka 安装配置 windows 下 标签(空格分隔): Kafka Kafka 内核部分需要安装jdk, zookeeper. 安装JDK 安装JDK就不需要讲解了,安装完配置下JAVA_HOM ...
- 简要log4j配置
若排版紊乱可查看我的个人博客原文地址 1. 配置效果 下面的log4j日志配置最终能达到的效果是对于全局日志可以根据级别输入到对应级别的日志文件中,注意低级别的日志文件会同时包含高级别的日志信息,例如 ...
- log4j日志输出到日志文件中和控制台中 +log4j配置详解
1.引入log4j的jar包 https://mvnrepository.com/,可以找到log4j的jar和依赖. 2.创建log4j.properties,并配置log4j #设置日志的级别 , ...
随机推荐
- hadoop2集群中的datanode启动以后自动关闭的问题
今天在启动前几天搭建成功的hadoop集群的时候,出现了datanode启动之后自动关闭的情况,经过查询之后发现问题产生的原因是:在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式 ...
- Rouh set 入门知识1(基础定义篇)
粗糙集理论是继概率论.模糊集.证据论后又一处理不完整性和不确定性的数学工具,建立在分类机制的基础上.无需提供问题所处理的数据集合之外的任何先验信息条件.并且能有效分析不精确.不一致.不完整等各种不完备 ...
- img标签块状与内联的博弈
新手,请前辈们不吝赐教 说到html中img标签是内联还是块状元素,我们首先要知道什么是内联(inline),什么又是块状(block)? 我也在网上查看了一些别人分享的经验,有一个讲到了文档流的概念 ...
- 万能的everything彻底解决mysql问题
万能的everthing D:\RECYCLER\S-1-5-21-1214440339-1123561945-1801674531-500\Dd16.0\my.ini可能之前的电脑的隐藏文件没有删除 ...
- jsp-文件的上传(转).
该程序的主要代码,我引用网友的,并做了一些改进.上这个帖子的原因之一,是为了修正之前自己的一些误解. 概述: 一些网友,包括我,也曾经试图通过 input type 为 file的控件,获取其文件的完 ...
- Linux运行C#程序
首先需要安装mono 安装教程http://www.cnblogs.com/aixunsoft/p/3422099.html 然后 用终端执行C#程序就可以了,mono 程序文件名 可以直接执行win ...
- struts2中方法拦截器(Interceptor)的中的excludeMethods与includeMethods的理解
http://www.cnblogs.com/langtianya/archive/2013/04/10/3012205.html
- ORACLE 中ROWNUM用法总结!(转)
对于 Oracle 的 rownum 问题,很多资料都说不支持>,>=,=,between...and,只能用以上符号(<.<=.!=),并非说用>,>=,=,be ...
- winform降低功耗总结
这里整理了一些网上关于Winform如何降低系统内存占用的资料,供参考: 1.使用性能测试工具dotTrace 3.0,它能够计算出你程序中那些代码占用内存较多2.强制垃圾回收3.多dispose,c ...
- C# XML文件操作类XmlHelper
类的完整代码: using System;using System.Collections;using System.Xml; namespace Keleyi.Com.XmlDAL{public c ...