MySQL binlog 自动清理脚本
# vim /data/scripts/delete_mysql_binlog.sh
|
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
|
#!/bin/bash#=======================================================================================# 用于删除 MySQL Master 端已经同步完的 binlog【需在 Master 端运行】,以减少磁盘空间# 每天凌晨 5:30 分运行一次## 注:需在 Slave 端添加允许 Master 端访问的帐号【帐号:check_binlog,密码:binlog_2356】# 运行于 MySQL Master 端【目前只用于一主一从的同步模式,对于多从的情况暂时未考虑】#=======================================================================================PATH=/sbin:/bin:/usr/sbin:/usr/bin:/usr/local/sbin:/usr/local/bin ## Slave端连接信息SLAVE_ADDR="XXX.XXX.XXX.XXX"SLAVE_USER="check_binlog"SLAVE_PWD="binlog_2356" LOGFILE="/data/logs/db_sync_info.log"PINGFILE="/tmp/mysqlping.log" ## MySQL状态信息查看命令SQLCMD="show slave status" #=======================================================================================## 检查MySQL是否已经运行if [[ `ps aux | grep mysql[d] | wc -l` -eq 0 ]]; then echo The MySQL is not running at: `date +%F" "%H-%M-%S` >> ${LOGFILE} exit 1fi ## 测试Slave端的连通性nohup mysqladmin -h${SLAVE_ADDR} -u${SLAVE_USER} -p${SLAVE_PWD} ping > ${PINGFILE}retval=`grep "^error" ${PINGFILE}`rm -f ${PINGFILE}if [[ "${retval}X" != "X" ]]; then echo The MySQL Slave can not be connected at: `date +%F" "%H-%M-%S` >> ${LOGFILE} exit 1fi ## 检查是否合法的SlaveMASTER_ADDR=`mysql -h${SLAVE_ADDR} -u${SLAVE_USER} -p${SLAVE_PWD} -e "${SQLCMD}\G;" | awk '$1=="Master_Host:" {print $2}'`LOCAL_ADDR=`/sbin/ifconfig eth1 | awk -F ':' '/inet addr/{print $2}' | sed 's/[a-zA-Z ]//g'`if [[ "${MASTER_ADDR}" != "${LOCAL_ADDR}" ]]; then echo The MySQL Slave is not lawful at: `date +%F" "%H-%M-%S` >> ${LOGFILE} exit 1fi ## 获得Slave端信息,以此来确定是否处于正常同步的情况IO_STATUS=`mysql -h${SLAVE_ADDR} -u${SLAVE_USER} -p${SLAVE_PWD} -e "${SQLCMD}\G;" | awk '$1=="Slave_IO_Running:" {print $2}'`SQL_STATUS=`mysql -h${SLAVE_ADDR} -u${SLAVE_USER} -p${SLAVE_PWD} -e "${SQLCMD}\G;" | awk '$1=="Slave_SQL_Running:" {print $2}'`if [[ "${IO_STATUS}" != "Yes" || "${SQL_STATUS}" != "Yes" ]]; then echo The MySQL Replication is not synchronous at: `date +%F" "%H-%M-%S` >> ${LOGFILE} exit 1fi ## 再做一次判断,以保证数据同步绝对正常【创建测试数据】mysql -uroot -e "create database if not exists mytestdb;"sleep 3 retval=`mysql -h${SLAVE_ADDR} -u${SLAVE_USER} -p${SLAVE_PWD} -e "show databases;" | grep mytestdb`mysql -uroot -e "drop database if exists mytestdb;"if [[ "${retval}X" = "X" ]]; then echo The MySQL Replication is not synchronous at: `date +%F" "%H-%M-%S` >> ${LOGFILE} exit 1fi ## 在已经同步的情况,还需要判断当前同步的binlog,以此来确定哪些已经是过期的binlogSLAVE_BINLOG1=`mysql -h${SLAVE_ADDR} -u${SLAVE_USER} -p${SLAVE_PWD} -e "${SQLCMD}\G;" | awk '$1=="Master_Log_File:" {print $2}'`SLAVE_BINLOG2=`mysql -h${SLAVE_ADDR} -u${SLAVE_USER} -p${SLAVE_PWD} -e "${SQLCMD}\G;" | awk '$1=="Relay_Master_Log_File:" {print $2}'`## 获得Master端,当前的binlog文件以及binlog路径MASTER_BINLOG=`mysql -uroot -e "show master status;" | grep -v '^+' | tail -1 | awk '{print $1}'` ## 主从端已经同步到相同的binlogif [[ "${SLAVE_BINLOG1}" = "${SLAVE_BINLOG2}" && "${SLAVE_BINLOG1}" = "${MASTER_BINLOG}" ]]; then CURR_BINLOG="${MASTER_BINLOG}" ## 主从端已经同步,但从端的binlog还没有追赶到主端最新的binlogelif [[ "${SLAVE_BINLOG1}" = "${SLAVE_BINLOG2}" && "${SLAVE_BINLOG1}" != "${MASTER_BINLOG}" ]]; then CURR_BINLOG="${SLAVE_BINLOG1}" ## 主从端已经同步,主从端的binlog一致,但relaylog还不一致elif [[ "${SLAVE_BINLOG1}" != "${SLAVE_BINLOG2}" && "${SLAVE_BINLOG1}" = "${MASTER_BINLOG}" ]]; then CURR_BINLOG="${SLAVE_BINLOG2}" else echo Has noknown error at:`date +%F" "%H-%M-%S` >> ${LOGFILE} exit 1fi mysql -uroot -e "purge binary logs to '${CURR_BINLOG}';"if [[ $? -eq 0 ]]; then echo Clear MySQL binlog is ok at: `date +%F" "%H-%M-%S` >> ${LOGFILE}fi |
# crontab -e
30 05 * * * /data/scripts/delete_mysql_binlog.sh >/dev/null 2>&1
MySQL binlog 自动清理脚本的更多相关文章
- MySQL binlog 自动备份脚本
MySQL binlog 自动备份脚本 1 利用shell进行备份 #!/bin/sh #mysql binlog backup script /usr/local/mysql/bin/mysqlad ...
- MySQL bin-log 日志清理方式
MySQL bin-log 作用 1.数据恢复:如果你的数据库出问题了,而你之前有过备份,那么可以看日志文件,找出是哪个命令导致你的数据库出问题了,想办法挽回损失. 2.主从服务器之间同步数据:主 ...
- hive 中间会话临时文件自动清理脚本
hive在运行过程中,我们经常会发现 hdfs /tmp/hive/hive or hdfs 目录占用空间巨大,我这里已经清理过了所以,相对较小.但是初次使用hive的用户,一定会发现 随着时间的推移 ...
- elasicsearch数据自动清理脚本
elasticsearch随着保存的数据越来越多,磁盘占用越来越大,有必要进行定期自动清理. 直接上脚本 cat es-index-clear.sh #/bin/bash #查看索引信息 #curl ...
- centos内存自动清理脚本及限制tomcat内存占用
使用crontab定时每天自动清理系统内存 00 00 * * * /root/Cached.sh [root@localhost ~]# cat Cachec.sh #! /bin/bash# ca ...
- MySQL XtraBackup自动恢复脚本
#!/bin/sh ################## #author:rrhelei@126.com# ################## #xtrabackup2.1.8 # 使用方法: ...
- mysql数据库自动备份脚本
#!/bin/bash #功能说明:本功能用于备份mysql数据库 #编写日期:2018/05/17 PATH=/bin:/sbin:/usr/bin:/usr/sbin:/usr/local/bin ...
- mysql+keepalived主从切换脚本 转
Keepalived MySQL故障自动切换脚本 MySQL架构为master-slave(主从),master故障自动切换到slave上.当然也可以设置为双master,但这里有个弊端:就是当主 ...
- harbor自动清理镜像
harbor定时清理镜像 分享下最近写harbor仓库镜像自动清理脚本思路,很长时间不写shell脚本,这次的脚本也是匆匆写的,还有很多可优化点,感兴趣的可以参考自己优化下,写的不完善地方也希望指 ...
随机推荐
- 微信机器人项目开发--python
1.外网穿透工具下载与注册[http://ngrok.ciqiuwl.cn/] 2.公众号审请 3.代码编写 糗事百科接口 # _*_ coding:utf-8 _*_ import requests ...
- Qt 入门 ---- 如何在程序窗口显示图片?
步骤: 1. 选择资源(准备图片) 2. 加载资源(导入图片) 3. 使用资源(显示图片) 具体操作流程: ① 从网上寻找合适的图片素材,下载到本地,在项目根目录下创建一个images文件夹存储程序中 ...
- Redis(6379)未授权访问
环境搭建 打开kali终端 输入命令 wget http://download.redis.io/releases/redis-3.2.0.tar.gz tar xzf redis-3.2.0.tar ...
- 论文笔记:(2019)LDGCNN : Linked Dynamic Graph CNN-Learning on PointCloud via Linking Hierarchical Features
目录 摘要 一.引言 A.基于视图的方法 B.基于体素的方法 C.基于几何的方法 二.材料 三.方法 A.问题陈述 B.图生成 C.图特征提取 D.变换不变函数 E.LDGCNN架构 F.冻结特征提取 ...
- html页面自动跳转
<script type="javascrpit"> var url='';//需要跳转的页面 var search = window.location.search; ...
- AndroidStudio快捷键总结
本文总结一下最近常用的命令: 1.格式化代码:Ctrl+Alt+L[可能与电脑快捷键冲突,修改方法:在设置里点击Keymap 搜索:Reformat Code] 2.复制当前类:Ctrl+Shift+ ...
- 针对Cloud-init的可行性报告
by hyc 针对Cloud-init的可行性报告 一.Cloud-init研究进展: (1)ubuntu镜像: 已在版本为ubuntu-server-14.04-amd64上实现了修改主机名和用户密 ...
- Spring Cloud Alibaba - Feign
Feign Feign简介 使用Feign实现消费者客户端 使用Feign+Ribbon实现客户端负载均衡 底层的负载均衡策略还是使用Ribbon通过Feign进行调用 Feign的相关配置 ribb ...
- scrapy爬虫框架使用
一.scrapy框架 1.什么是scrapy: 爬虫中封装好的一个明星框架.功能:高性能的持久化存储,异步的数据下载,高性能的数据解析,分布式. 2.使用方法: 安装: 下载tiwisted,此处位下 ...
- Supervisord远程命令执行漏洞(CVE-2017-11610)复现
Supervisord远程命令执行漏洞(CVE-2017-11610)复现 文章首发在安全客 https://www.anquanke.com/post/id/225451 写在前面 因为工作中遇到了 ...