Linux日志分割脚本
该脚本的功能是定时分割日志文件
#!/usr/bin/env bash #定时分割清理日志文件 #usage="Usage: logrotate (start|stop) file (line|size)"
#usage="-e Usage: logrotate start file (line|size) or logrotate stop"
usage="-e Usage: ${PROGRAM} { start file (line|size) | stop | restart file (line|size) | status | version | help }" #获取该文件的名称
declare -r PROGRAM="$(basename "$")" #解析参数
# get arguments
startStop=$
shift
logfile=$
shift
lineSize=$
shift
#echo $startStop
#echo "logfile: $logfile" #设置心跳,即多长时间执行一次,单位s
HEARTBEAT=${HEARTBEAT:-$[**]}
#HEARTBEAT=
#echo $HEARTBEAT #日志保存天数
SAVE_DAYS=${SAVE_DAYS:-} function get_time(){
#获取今天日期
TODAY_DATE=$(date +%Y%m%d)
#echo $TODAY_DATE #获取 $SAVE_DAYS 天前的日期
#EARLY_DATE=`date +%Y%m%d --date="-1 day"`
EARLY_DATE=$(date +%Y%m%d --date="-${SAVE_DAYS} day")
#echo $EARLY_DATE #获取当前时间
cur_time=$(date "+%Y%m%d%H%M%S")
} #清理过期日志文件
function delete_expired_logfile() {
logfileLength=`echo ${FILEPrefix} |wc -L`
let logfileLength=$logfileLength+
#echo $logfileLength #遍历符合表达式的文件
for logfiles in `ls ${FILEDIR} | grep -o -E ${FILEPrefix}_'[0-9]*'_'[0-9]*'.log`
do
#echo $logfiles
logfileLength2=`echo ${logfiles} |wc -L`
#如果文件长度等于规定的长度,
if [ $logfileLength2 -eq $logfileLength ] ; then
#获取该日志文件的日期
logDate=${logfiles::}
if [ $logDate -lt $EARLY_DATE ] ; then
rm -rf ${FILEDIR}/$logfiles
fi
fi
done
} #获取日志目录与日志名
function get_logname_info() {
#logfile=/home/user/file/out.log
#已知文件,获取文件名,该方式是从左开始最大化匹配到字符"/",然后截掉左边内容(包括字符"/"),返回余下右侧部分。
FILENAME=${logfile##*/}
#echo "filename: $FILENAME" #判断$logfile是否包含"/"
#echo "$logfile" |grep -q "/"
#if [ $? -eq 0 ] ; then
if [[ $logfile =~ "/" ]] ; then
#已知文件,获取文件路径,该方式是从右开始第一次匹配到字符"/",然后截掉右边内容(包括字符"/"),返回余下左侧部分。
FILEDIR=${logfile%/*}
else
FILEDIR="."
fi #echo "filedir: $FILEDIR" #获取文件名前缀
FILEPrefix=${FILENAME%.*}
#echo "filePrefix: $FILEPrefix" #判断$FILENAME是否包含"."
if [[ $FILENAME =~ "." ]] ; then
#获取文件名后缀
FILESuffix=${FILENAME##*.}
else
FILESuffix=""
fi
#echo "fileSuffix: $FILESuffix" #LOG_DIR="/usr/local/nginx/logs/"
#echo $LOG_DIR
} ###################################
#(函数)判断程序是否已启动
#
#说明:
#使用JDK自带的JPS命令及grep命令组合,准确查找pid
#jps 加 l 参数,表示显示java的完整包路径
#使用awk,分割出pid ($1部分),及Java程序名称($2部分)
###################################
#初始化psid变量(全局)
psid=0 function checkpid() {
javaps=`ps -ef | grep $PROGRAM | grep -v "grep"` if [ -n "$javaps" ]; then
psid=`echo $javaps | awk '{print $2}'`
else
psid=0
fi
} ###################################
#(函数)启动程序
#
#说明:
#1. 首先调用checkpid函数,刷新$psid全局变量
#2. 如果程序已经启动($psid不等于0),则提示程序已启动
#3. 如果程序没有被启动,则执行启动命令行
#4. 启动命令执行后,再次调用checkpid函数
#5. 如果步骤4的结果能够确认程序的pid,则打印[OK],否则打印[Failed]
#注意:echo -n 表示打印字符后,不换行
#注意: "nohup 某命令 >/dev/null 2>&1 &" 的用法
###################################
function do_start() {
echo -n "Starting $PROGRAM ..."
checkpid
echo -n "(pid=$psid) "
if [ $psid -ne 0 ]; then
echo "[OK]"
if [[ $lineSize == "line" ]] || [[ $lineSize == "size" ]] ; then
while true
do
get_time
delete_expired_logfile
case "${lineSize:-}" in
line)
#divide_file_by_line
divide_file_by_line2
;; size)
divide_file_by_size
;; esac sleep ${HEARTBEAT}
done
else
echo "Usage: logrotate start file (line|size)"
fi
else
echo "[Failed]"
fi
} ###################################
#(函数)停止程序
#
#说明:
#1. 首先调用checkpid函数,刷新$psid全局变量
#2. 如果程序已经启动($psid不等于0),则开始执行停止,否则,提示程序未运行
#3. 使用kill -9 pid命令进行强制杀死进程
#4. 执行kill命令行紧接其后,马上查看上一句命令的返回值: $?
#5. 如果步骤4的结果$?等于0,则打印[OK],否则打印[Failed]
#6. 为了防止java程序被启动多次,这里增加反复检查进程,反复杀死的处理(递归调用stop)。
#注意:echo -n 表示打印字符后,不换行
#注意: 在shell编程中,"$?" 表示上一句命令或者一个函数的返回值
###################################
function do_stop() {
checkpid if [ $psid -ne 0 ]; then
echo -n "Stopping $PROGRAM ...(pid=$psid) "
kill -9 $psid
if [ $? -eq 0 ]; then
echo "[OK]"
else
echo "[Failed]"
fi checkpid
if [ $psid -ne 0 ]; then
stop
fi
else
echo "================================"
echo "warn: $PROGRAM is not running"
echo "================================"
fi
} #copy文件
function copy_logfile() {
logfile_bak=${logfile}.bak
#echo ${logfile_bak}
cp -rf $logfile ${logfile_bak}
#filename_bak=${FILENAME}.bak
#echo ${FILENAME}
#echo ${filename_bak}
#cp -rf ${FILEDIR}/${FILENAME} ${FILEDIR}/${filename_bak}
} #设置划分文件的行数
LINE_NUM=${LINE_NUM:-30000}
#LINE_NUM=${LINE_NUM:-3}
#echo $LINE_NUM
#按照固定行数分割文件
function divide_file_by_line() {
#get_time #获取日志文件的行数
#line=`cat $logfile | wc -l`
line=`sed -n '$=' $logfile`
#echo $line
startLine=1
#endLine=$line
i=0
# 如果line > LINE_NUM,则进行划分, (-gt > , -lt <, )
#while [ ${endLine} -gt 0 ]
while [ ${startLine} -lt ${line} ]
do
#startLine=1
let endLine=$startLine+$LINE_NUM-1
num=`printf "%04d\n" $i` #sed -n "${startLine},${endLine} p;q" $logfile >result_${cur_time}.txt
#将 $logfile 文件的从${startLine}到${LINE_NUM}行的数据写到 文件
#sed -n "${startLine},${LINE_NUM} p" $logfile >${FILEPrefix}_${cur_time}_${num}.log
sed -n "${startLine},${endLine} p" $logfile >${FILEDIR}/${FILEPrefix}_${cur_time}_${num}.log
#删除指定的行
#sed -i "${startLine},${LINE_NUM} d" $logfile
#let endLine=${endLine}-${LINE_NUM}
let startLine=$startLine+$LINE_NUM
let i=$i+1
#sleep 1s
done
#清空文件内容,因为日志文件实时更新,所以不能清空
#echo "" > $logfile
#删除指定的行
sed -i "1,${line} d" $logfile
} #按照固定行数分割文件
function divide_file_by_line2() {
#get_time #获取日志文件的行数
line=`cat $logfile | wc -l`
#line=`sed -n '$=' $logfile` # 以行为单位划分文件,-l行数,将urls.txt文件按2000行一个文件分割为多个文件;-d添加数字后缀,比如00,01,02;-a 2表示用两位数据来顺序命名;url_定义分割后的文件名前缀。
# split urls.txt -l 2000 -d -a 2 url_
split $logfile -l ${LINE_NUM} -d -a 4 "${FILEDIR}/${FILEPrefix}_${cur_time}_"
#ls|grep tmp_|xargs -n1 -i{} mv {} {}.txt,意思是先查找tmp_开头的文件,然后逐个重命名为.txt
ls ${FILEDIR} |grep "${FILEPrefix}_${cur_time}_"|xargs -n1 -i{} mv ${FILEDIR}/{} ${FILEDIR}/{}.log
#rename_logfile #清空文件内容,因为日志文件实时更新,所以不能清空
#echo "" > $logfile
#删除指定的行
sed -i "1,${line} d" $logfile
} #设置划分文件的大小(单位MB)(1MB=1*1024KB=1*1024*1024B=1*1024*1024*8b)
#转换成KB
#SIZE=${SIZE:-$[32*1024]}
SIZE=${SIZE:-32}
#SIZE=5
#echo $SIZE
#按照文件大小,分割文件
function divide_file_by_size() {
#get_time #获取日志文件的行数
line=`cat ${logfile} | wc -l` #按文件大小划分
# 以文件大小为单位划分文件,-b, --bytes=SIZE:对file进行切分,每个小文件大小为SIZE,可以指定单位b,k,m;-d添加数字后缀,比如00,01,02;-a 2表示用两位数据来顺序命名;url_定义分割后的文件名前缀。
# split urls.txt -b 500k -d -a 2 url_
split $logfile -b ${SIZE}m -d -a 4 "${FILEDIR}/${FILEPrefix}_${cur_time}_"
#ls|grep tmp_|xargs -n1 -i{} mv {} {}.txt,意思是先查找tmp_开头的文件,然后逐个重命名为.txt
ls ${FILEDIR}|grep "${FILEPrefix}_${cur_time}_"|xargs -n1 -i{} mv ${FILEDIR}/{} ${FILEDIR}/{}.log
#rename_logfile #删除指定的行
sed -i "1,${line} d" $logfile
} #重命名日志文件
function rename_logfile() {
#加.log后缀
for logfiles in `ls ${FILEDIR} | grep "${FILEPrefix}_${cur_time}_"`
do
# 拼接成文件名
logfilename="${logfiles}.log"
# 更改文件名
mv ${FILEDIR}/$logfiles ${FILEDIR}/$logfilename
done
} function do_version() {
echo "$PROGRAM version \"1.0\""
} ###################################
#(函数)检查程序运行状态
#
#说明:
#1. 首先调用checkpid函数,刷新$psid全局变量
#2. 如果程序已经启动($psid不等于0),则提示正在运行并表示出pid
#3. 否则,提示程序未运行
###################################
status() {
checkpid if [ $psid -ne 0 ]; then
echo "$PROGRAM is running! (pid=$psid)"
else
echo "$PROGRAM is not running"
fi
} #主函数
function main() {
get_logname_info case "${startStop:-}" in
start)
if [ ${logfile:-} ] ; then
do_start
else
echo "Usage: logrotate start file (line|size)"
fi
;; stop)
do_stop
;; restart)
do_stop
if [ ${logfile:-} ] ; then
do_start
else
echo "Usage: logrotate restart file (line|size)"
fi
;; status)
do_status
;; version|--version|-v)
do_version
;; help|--help|-help)
echo $usage #"Usage: ${PROGRAM} { start | stop | restart | status | version | help }"
;; *)
echo >&2 $usage #"Usage: ${PROGRAM} { start | stop | restart | status | version | help }"
exit 1
;;
esac
} #运行
main "$@"
Linux日志分割脚本的更多相关文章
- 【运维实战】一次linux日志分割之路——将日志按照每小时进行分割,并按照“日期-小时”格式保存
是这样的,现在需要对nginx的access.log进行按照每小时进行分割,并且最好还要能够以 “日期+时间”的形式,命名保存. 两点,一个是按照每小时进行分割,一个是将日志以“日期+时间”的形式进行 ...
- linux日志分割、去重、统计
一.实例 单条日志模板: 2018-11-08 02:17:22 [Iceberg]process params:IcebergOfferServiceImpl.Params(pk=BF06NA2YE ...
- nginx日志分割脚本
[root@localhost nginx]# cat logs/nginx.pid 5118[root@localhost nginx]# kill -QUIT 5118-QUIT : 关闭进程-H ...
- Linux 日志分析脚本
#### 以下代码,若出现无法使用,请根据底下图片,更改参数.根据 apache 日志格式修改 查看 apache 进程ps aux | grep httpd | grep -v grep | wc ...
- Linux 日志切割方法总结--Logrotate
一.Logrotate 使用方法 对于Linux系统安全来说,日志文件是极其重要的工具.logrotate程序是一个日志文件管理工具.用于分割日志文件,删除旧的日志文件,并创建新的日志文件,起到&qu ...
- Nginx高性能服务器安装、配置、运维 (6) —— Nginx日志及日志分割
七.Nginx日志及日志分割 (1)Nginx日志文件 查看Nginx配置文件: 找到access_log,yum安装默认存储在/var/log/nginx目录下,且默认main格式: main格式定 ...
- Linux日志文件分割
经常有这样的情况,日志文件或者数据文件会变得很庞大,那么每次对这些目标文件的访问或者修改就会变得极其耗时.因而引发一些性能问题,但是如果对这些目标文件进行分割,限定其大小,那么每次的访问或者修改就会变 ...
- linux文件分割(将大的日志文件分割成小的)
linux文件分割(将大的日志文件分割成小的) linux下文件分割可以通过split命令来实现,可以指定按行数分割和安大小分割两种模式.Linux下文件合并可以通过cat命令来实现,非常简单. 在L ...
- linux文件分割(将大的日志文件分割成小的)【转载】
linux文件分割(将大的日志文件分割成小的)linux下文件分割可以通过split命令来实现,可以指定按行数分割和安大小分割两种模式.Linux下文件合并可以通过cat命令来实现,非常简单. 在Li ...
随机推荐
- PCIE、UART、I2C、SMBUS、SPI、eSPI、USB、PS2、CAN、SDIO等数据传输协议
M.2 wife一般支持USB.SDIO.PCIE三种传输
- 数据库如何让自增id重置
sql语句:truncate tablename; 会清空表的所有记录,并且使自增的id重置. 另外,navicat的截断表,就是这个功能. 它的清空表只会清空数据,不能使自增的id重置.
- mysql优化之索引建立的规则
索引经常使用的数据结构为B+树.结构例如以下 如上图,是一颗b+树,关于b+树的定义能够參见B+树,这里仅仅说一些重点.浅蓝色的块我们称之为一个磁盘块,能够看到每一个磁盘块包括几个数据项(深蓝色所看到 ...
- g++ 6.4编译opencv-2.4.10报错记录
fetch公司的项目进行编译,此项目依赖opencv库.由于本人一直比较偏爱fedora,但也因此给我带来了许多"乐趣"(麻烦).fedora一直走得比较前沿,g++ 6.3了 ...
- 后端程序员看前端想死(三)是不是该学点js了
CSS盒子模型 div布局 js 这些都懂一点,但仅仅是懂一点,有时间就学一下咯
- nginx的源代码分析--间接回调机制的使用和类比
nginx使用了间接回调机制.结合upstream机制的使用来说明一下,首先明白几个事实: 1)事实上ngxin和下游client的连接使用的是ngx_http_connection_t,每一个连接相 ...
- OpenCV 环境搭建( Win7 32位 / VS2010 / OpenCV2.4.8 )
前言 本文介绍如何搭建 OpenCV 开发环境 配置如下: 操作系统:WIN7 32位 开发平台:VS2010 OpenCV 版本:2.4.8 第一步:安装 OpenCV 2.4.8 1. 登陆 Op ...
- Operation not permitted - /usr/bin/pod
问题描述:执行sudo gem install cocoapods, 提示出错:While executing gem ... (Errno::EPERM) Operation not per ...
- EasyDarwin幼教云视频平台在幼教平台领域大放异彩!
在之前的一篇方案<基于EasyDarwin云视频平台的幼儿园视频直播(手机直播/微信直播)解决方案>中,我们提到一种可以广泛应用于幼教.工厂.建筑工地以及各种现场监控的云视频平台方案,这种 ...
- mongodb学习之:GridFS
GridFS是一种在Mongodb中存储大二进制文件的机制.GridFS 用于存储和恢复那些超过16M(BSON文件限制)的文件(如:图片.音频.视频等). 使用GridFS有如下几个原因: 1 利用 ...