Linux日志分割脚本
该脚本的功能是定时分割日志文件
#!/usr/bin/env bash #定时分割清理日志文件 #usage="Usage: logrotate (start|stop) file (line|size)"
#usage="-e Usage: logrotate start file (line|size) or logrotate stop"
usage="-e Usage: ${PROGRAM} { start file (line|size) | stop | restart file (line|size) | status | version | help }" #获取该文件的名称
declare -r PROGRAM="$(basename "$")" #解析参数
# get arguments
startStop=$
shift
logfile=$
shift
lineSize=$
shift
#echo $startStop
#echo "logfile: $logfile" #设置心跳,即多长时间执行一次,单位s
HEARTBEAT=${HEARTBEAT:-$[**]}
#HEARTBEAT=
#echo $HEARTBEAT #日志保存天数
SAVE_DAYS=${SAVE_DAYS:-} function get_time(){
#获取今天日期
TODAY_DATE=$(date +%Y%m%d)
#echo $TODAY_DATE #获取 $SAVE_DAYS 天前的日期
#EARLY_DATE=`date +%Y%m%d --date="-1 day"`
EARLY_DATE=$(date +%Y%m%d --date="-${SAVE_DAYS} day")
#echo $EARLY_DATE #获取当前时间
cur_time=$(date "+%Y%m%d%H%M%S")
} #清理过期日志文件
function delete_expired_logfile() {
logfileLength=`echo ${FILEPrefix} |wc -L`
let logfileLength=$logfileLength+
#echo $logfileLength #遍历符合表达式的文件
for logfiles in `ls ${FILEDIR} | grep -o -E ${FILEPrefix}_'[0-9]*'_'[0-9]*'.log`
do
#echo $logfiles
logfileLength2=`echo ${logfiles} |wc -L`
#如果文件长度等于规定的长度,
if [ $logfileLength2 -eq $logfileLength ] ; then
#获取该日志文件的日期
logDate=${logfiles::}
if [ $logDate -lt $EARLY_DATE ] ; then
rm -rf ${FILEDIR}/$logfiles
fi
fi
done
} #获取日志目录与日志名
function get_logname_info() {
#logfile=/home/user/file/out.log
#已知文件,获取文件名,该方式是从左开始最大化匹配到字符"/",然后截掉左边内容(包括字符"/"),返回余下右侧部分。
FILENAME=${logfile##*/}
#echo "filename: $FILENAME" #判断$logfile是否包含"/"
#echo "$logfile" |grep -q "/"
#if [ $? -eq 0 ] ; then
if [[ $logfile =~ "/" ]] ; then
#已知文件,获取文件路径,该方式是从右开始第一次匹配到字符"/",然后截掉右边内容(包括字符"/"),返回余下左侧部分。
FILEDIR=${logfile%/*}
else
FILEDIR="."
fi #echo "filedir: $FILEDIR" #获取文件名前缀
FILEPrefix=${FILENAME%.*}
#echo "filePrefix: $FILEPrefix" #判断$FILENAME是否包含"."
if [[ $FILENAME =~ "." ]] ; then
#获取文件名后缀
FILESuffix=${FILENAME##*.}
else
FILESuffix=""
fi
#echo "fileSuffix: $FILESuffix" #LOG_DIR="/usr/local/nginx/logs/"
#echo $LOG_DIR
} ###################################
#(函数)判断程序是否已启动
#
#说明:
#使用JDK自带的JPS命令及grep命令组合,准确查找pid
#jps 加 l 参数,表示显示java的完整包路径
#使用awk,分割出pid ($1部分),及Java程序名称($2部分)
###################################
#初始化psid变量(全局)
psid=0 function checkpid() {
javaps=`ps -ef | grep $PROGRAM | grep -v "grep"` if [ -n "$javaps" ]; then
psid=`echo $javaps | awk '{print $2}'`
else
psid=0
fi
} ###################################
#(函数)启动程序
#
#说明:
#1. 首先调用checkpid函数,刷新$psid全局变量
#2. 如果程序已经启动($psid不等于0),则提示程序已启动
#3. 如果程序没有被启动,则执行启动命令行
#4. 启动命令执行后,再次调用checkpid函数
#5. 如果步骤4的结果能够确认程序的pid,则打印[OK],否则打印[Failed]
#注意:echo -n 表示打印字符后,不换行
#注意: "nohup 某命令 >/dev/null 2>&1 &" 的用法
###################################
function do_start() {
echo -n "Starting $PROGRAM ..."
checkpid
echo -n "(pid=$psid) "
if [ $psid -ne 0 ]; then
echo "[OK]"
if [[ $lineSize == "line" ]] || [[ $lineSize == "size" ]] ; then
while true
do
get_time
delete_expired_logfile
case "${lineSize:-}" in
line)
#divide_file_by_line
divide_file_by_line2
;; size)
divide_file_by_size
;; esac sleep ${HEARTBEAT}
done
else
echo "Usage: logrotate start file (line|size)"
fi
else
echo "[Failed]"
fi
} ###################################
#(函数)停止程序
#
#说明:
#1. 首先调用checkpid函数,刷新$psid全局变量
#2. 如果程序已经启动($psid不等于0),则开始执行停止,否则,提示程序未运行
#3. 使用kill -9 pid命令进行强制杀死进程
#4. 执行kill命令行紧接其后,马上查看上一句命令的返回值: $?
#5. 如果步骤4的结果$?等于0,则打印[OK],否则打印[Failed]
#6. 为了防止java程序被启动多次,这里增加反复检查进程,反复杀死的处理(递归调用stop)。
#注意:echo -n 表示打印字符后,不换行
#注意: 在shell编程中,"$?" 表示上一句命令或者一个函数的返回值
###################################
function do_stop() {
checkpid if [ $psid -ne 0 ]; then
echo -n "Stopping $PROGRAM ...(pid=$psid) "
kill -9 $psid
if [ $? -eq 0 ]; then
echo "[OK]"
else
echo "[Failed]"
fi checkpid
if [ $psid -ne 0 ]; then
stop
fi
else
echo "================================"
echo "warn: $PROGRAM is not running"
echo "================================"
fi
} #copy文件
function copy_logfile() {
logfile_bak=${logfile}.bak
#echo ${logfile_bak}
cp -rf $logfile ${logfile_bak}
#filename_bak=${FILENAME}.bak
#echo ${FILENAME}
#echo ${filename_bak}
#cp -rf ${FILEDIR}/${FILENAME} ${FILEDIR}/${filename_bak}
} #设置划分文件的行数
LINE_NUM=${LINE_NUM:-30000}
#LINE_NUM=${LINE_NUM:-3}
#echo $LINE_NUM
#按照固定行数分割文件
function divide_file_by_line() {
#get_time #获取日志文件的行数
#line=`cat $logfile | wc -l`
line=`sed -n '$=' $logfile`
#echo $line
startLine=1
#endLine=$line
i=0
# 如果line > LINE_NUM,则进行划分, (-gt > , -lt <, )
#while [ ${endLine} -gt 0 ]
while [ ${startLine} -lt ${line} ]
do
#startLine=1
let endLine=$startLine+$LINE_NUM-1
num=`printf "%04d\n" $i` #sed -n "${startLine},${endLine} p;q" $logfile >result_${cur_time}.txt
#将 $logfile 文件的从${startLine}到${LINE_NUM}行的数据写到 文件
#sed -n "${startLine},${LINE_NUM} p" $logfile >${FILEPrefix}_${cur_time}_${num}.log
sed -n "${startLine},${endLine} p" $logfile >${FILEDIR}/${FILEPrefix}_${cur_time}_${num}.log
#删除指定的行
#sed -i "${startLine},${LINE_NUM} d" $logfile
#let endLine=${endLine}-${LINE_NUM}
let startLine=$startLine+$LINE_NUM
let i=$i+1
#sleep 1s
done
#清空文件内容,因为日志文件实时更新,所以不能清空
#echo "" > $logfile
#删除指定的行
sed -i "1,${line} d" $logfile
} #按照固定行数分割文件
function divide_file_by_line2() {
#get_time #获取日志文件的行数
line=`cat $logfile | wc -l`
#line=`sed -n '$=' $logfile` # 以行为单位划分文件,-l行数,将urls.txt文件按2000行一个文件分割为多个文件;-d添加数字后缀,比如00,01,02;-a 2表示用两位数据来顺序命名;url_定义分割后的文件名前缀。
# split urls.txt -l 2000 -d -a 2 url_
split $logfile -l ${LINE_NUM} -d -a 4 "${FILEDIR}/${FILEPrefix}_${cur_time}_"
#ls|grep tmp_|xargs -n1 -i{} mv {} {}.txt,意思是先查找tmp_开头的文件,然后逐个重命名为.txt
ls ${FILEDIR} |grep "${FILEPrefix}_${cur_time}_"|xargs -n1 -i{} mv ${FILEDIR}/{} ${FILEDIR}/{}.log
#rename_logfile #清空文件内容,因为日志文件实时更新,所以不能清空
#echo "" > $logfile
#删除指定的行
sed -i "1,${line} d" $logfile
} #设置划分文件的大小(单位MB)(1MB=1*1024KB=1*1024*1024B=1*1024*1024*8b)
#转换成KB
#SIZE=${SIZE:-$[32*1024]}
SIZE=${SIZE:-32}
#SIZE=5
#echo $SIZE
#按照文件大小,分割文件
function divide_file_by_size() {
#get_time #获取日志文件的行数
line=`cat ${logfile} | wc -l` #按文件大小划分
# 以文件大小为单位划分文件,-b, --bytes=SIZE:对file进行切分,每个小文件大小为SIZE,可以指定单位b,k,m;-d添加数字后缀,比如00,01,02;-a 2表示用两位数据来顺序命名;url_定义分割后的文件名前缀。
# split urls.txt -b 500k -d -a 2 url_
split $logfile -b ${SIZE}m -d -a 4 "${FILEDIR}/${FILEPrefix}_${cur_time}_"
#ls|grep tmp_|xargs -n1 -i{} mv {} {}.txt,意思是先查找tmp_开头的文件,然后逐个重命名为.txt
ls ${FILEDIR}|grep "${FILEPrefix}_${cur_time}_"|xargs -n1 -i{} mv ${FILEDIR}/{} ${FILEDIR}/{}.log
#rename_logfile #删除指定的行
sed -i "1,${line} d" $logfile
} #重命名日志文件
function rename_logfile() {
#加.log后缀
for logfiles in `ls ${FILEDIR} | grep "${FILEPrefix}_${cur_time}_"`
do
# 拼接成文件名
logfilename="${logfiles}.log"
# 更改文件名
mv ${FILEDIR}/$logfiles ${FILEDIR}/$logfilename
done
} function do_version() {
echo "$PROGRAM version \"1.0\""
} ###################################
#(函数)检查程序运行状态
#
#说明:
#1. 首先调用checkpid函数,刷新$psid全局变量
#2. 如果程序已经启动($psid不等于0),则提示正在运行并表示出pid
#3. 否则,提示程序未运行
###################################
status() {
checkpid if [ $psid -ne 0 ]; then
echo "$PROGRAM is running! (pid=$psid)"
else
echo "$PROGRAM is not running"
fi
} #主函数
function main() {
get_logname_info case "${startStop:-}" in
start)
if [ ${logfile:-} ] ; then
do_start
else
echo "Usage: logrotate start file (line|size)"
fi
;; stop)
do_stop
;; restart)
do_stop
if [ ${logfile:-} ] ; then
do_start
else
echo "Usage: logrotate restart file (line|size)"
fi
;; status)
do_status
;; version|--version|-v)
do_version
;; help|--help|-help)
echo $usage #"Usage: ${PROGRAM} { start | stop | restart | status | version | help }"
;; *)
echo >&2 $usage #"Usage: ${PROGRAM} { start | stop | restart | status | version | help }"
exit 1
;;
esac
} #运行
main "$@"
Linux日志分割脚本的更多相关文章
- 【运维实战】一次linux日志分割之路——将日志按照每小时进行分割,并按照“日期-小时”格式保存
是这样的,现在需要对nginx的access.log进行按照每小时进行分割,并且最好还要能够以 “日期+时间”的形式,命名保存. 两点,一个是按照每小时进行分割,一个是将日志以“日期+时间”的形式进行 ...
- linux日志分割、去重、统计
一.实例 单条日志模板: 2018-11-08 02:17:22 [Iceberg]process params:IcebergOfferServiceImpl.Params(pk=BF06NA2YE ...
- nginx日志分割脚本
[root@localhost nginx]# cat logs/nginx.pid 5118[root@localhost nginx]# kill -QUIT 5118-QUIT : 关闭进程-H ...
- Linux 日志分析脚本
#### 以下代码,若出现无法使用,请根据底下图片,更改参数.根据 apache 日志格式修改 查看 apache 进程ps aux | grep httpd | grep -v grep | wc ...
- Linux 日志切割方法总结--Logrotate
一.Logrotate 使用方法 对于Linux系统安全来说,日志文件是极其重要的工具.logrotate程序是一个日志文件管理工具.用于分割日志文件,删除旧的日志文件,并创建新的日志文件,起到&qu ...
- Nginx高性能服务器安装、配置、运维 (6) —— Nginx日志及日志分割
七.Nginx日志及日志分割 (1)Nginx日志文件 查看Nginx配置文件: 找到access_log,yum安装默认存储在/var/log/nginx目录下,且默认main格式: main格式定 ...
- Linux日志文件分割
经常有这样的情况,日志文件或者数据文件会变得很庞大,那么每次对这些目标文件的访问或者修改就会变得极其耗时.因而引发一些性能问题,但是如果对这些目标文件进行分割,限定其大小,那么每次的访问或者修改就会变 ...
- linux文件分割(将大的日志文件分割成小的)
linux文件分割(将大的日志文件分割成小的) linux下文件分割可以通过split命令来实现,可以指定按行数分割和安大小分割两种模式.Linux下文件合并可以通过cat命令来实现,非常简单. 在L ...
- linux文件分割(将大的日志文件分割成小的)【转载】
linux文件分割(将大的日志文件分割成小的)linux下文件分割可以通过split命令来实现,可以指定按行数分割和安大小分割两种模式.Linux下文件合并可以通过cat命令来实现,非常简单. 在Li ...
随机推荐
- Codeforces 490F Treeland Tour 树上的最长上升子序列
题目链接:点击打开链接 题意: 给定n个点的树. 以下n个数表示点权. 以下n-1行给出树. 找一条链,然后找出这条链中的点权组成的最长上升子序列. 求:最长上升子序列的长度. 思路: 首先是维护一条 ...
- Class doesn't implement Cloneable之怪象
1. 报错: -20 ::): threadid=: thread exiting with uncaught exception (group=0x4001d400) -20 ::): FATAL ...
- 从头认识java-14.1 再次对照数组与容器
这一章节我们再次深入的对照数组与容器. 数组与容器主要集中在三个方面:效率.类型.基础类型. 我们能够从三方面做出对照. 1.效率 这里的下来是指add和get 的速度 以下以add为例: packa ...
- linux下修改主机名hostname方法(转载)
查看主机名: 在终端输入hostname 永久修改 第一步:#hostname oratest 第二步:修改/etc/sysconfig/network中的hostname 第三步:修改/etc/ho ...
- MVC入门——详细页
添加Action ShowDetail using System; using System.Collections.Generic; using System.Linq; using System. ...
- 线程中调用Updatedata的问题
随便发个自定义消息,然后在 CMyDialog的自定义消息处理函数中 UpdateDate().因为 UpdateDate用到了线程本地存储.不能跨线程的 UpdateData只能在主线程中使用,将U ...
- Operation not permitted - /usr/bin/pod
问题描述:执行sudo gem install cocoapods, 提示出错:While executing gem ... (Errno::EPERM) Operation not per ...
- javascript中提高代码的封装性
我出的面试题中,有一条是问如何避免页面引用JS,出现函数.变量重复.冲突的. 从大的方面讲,应该引入javascript的模块化开发,符合AMD规范之类: 从小的方面说,大概就是限定变量和函数的作用域 ...
- 【BZOJ4956】lydsy七月月赛 I 乱搞
[BZOJ4956]lydsy七月月赛 I 题面 题解:傻题,Floyd传递闭包即可~ #include <cstdio> #include <cstring> #includ ...
- 在MFC中使用大漠插件
打开Class Wizard,Add Class...->MFC Class From TypeLib... File->Location->>> Finish-> ...