rsync用于数据迁移/备份的几个细节
上周我们的一个GitLab服务频繁出现web页面卡死问题,得重启虚拟机才可恢复,但重启之后没多久又会卡死。后来发现是虚拟机的磁盘大小超过了2T,而虚拟机管理那层的文件系统是ext3,最大单文件只能支持到2T(也不知道当初这个3T的虚拟磁盘镜像是怎么建立起来的,难道Xen不会给出警告?)。由于该机房没有可调动的磁盘了,于是只能另外找机房重新搭建一个环境,将数据迁过去。
只同步指定的子目录
场景:
0) 要迁移的是gitlab里面的git库数据
- 要迁移的数据很多(大约2T),由于跨机房网络速度一般,我们期望先迁移部分重点用户的,但fork出来的git库是在不同的子目录下的(比如
ssmp/ssmp.git会有zhangsan/ssmp.git,lisi/ssmp.git),这些都得一并迁移过去。
首先,像下面这样直接将ssmp, zhangsan, lisi三个目录全拷贝过去,肯定是不行的
rsync -a ssmp/ssmp.git zhangsan/ssmp.git lisi/ssmp git@new-repo:/home/git/repositories
因为不仅原来的目录结构丢了,三个ssmp.git还混到一起了。
解决方法是用rsync的 filter 特性
rsync -a --delete --filter="merge /tmp/gitlabFilter" repositories/ git@new-repo:/home/git/repositories/
但写这个filter内容的写法跟我们原来在tar那里习惯了的目录排除不一样,比如上面的场景写成下面这样是不能工作的:
+ ssmp/ssmp.git
+ zhangsan/ssmp.git
+ lisi/ssmp.git
- *
这是因为最后那个- *就已经把顶层的ssmp, zhangsan, lisi这几个目录排除掉了,于是ssmp下面的子目录是没法加进来的。
对于这个问题,rsync的man page说得很清楚(只不过我看见大段的英文就有些晕头),需要写成下面这样:
+ ssmp/
- ssmp/*
+ ssmp/ssmp.git
+ zhangsan/
- zhangsan/*
+ zhangsan/ssmp.git
+ lisi/
- lisi/*
+ lisis/smp.git
- *
这里还有一个详细的描述: Rsync backups: excluding directories
linux的磁盘cache导致拷贝速度逐渐下降
用rsync拷贝数据过程中发现一个现象:开始拷贝的时候速度很快,每秒有40MB左右,但拷贝几十分钟之后就降到10MB左右了,两边机器都没有跑什么应用,网络用netcat测也没有问题…
然后我观察到的一个问题是两边的free命令都显示出内存占用很高,并且是buffered/cache一栏很高,因为这个缓存是可以手工释放的,就抱着试试看的想法试了一下:
sync; echo 3 > /proc/sys/vm/drop_caches
ssh root@new-repos 'sh -c "sync; echo 3 > /proc/sys/vm/drop_caches"'
没想到速度马上恢复了!
于是我改了脚本,每次调用一次rsync同步完一个git库及其fork,就调上面的语句将cache清掉,速度基本上不受影响。
补充说明
- linux操作系统会将文件系统的内容缓存起来,以便后面用到时加速,但在数据迁移场景下,基本上没有“后面用到时”这个场景,这个缓存反而碍事(TODO: 为什么导致网络io下降)
- 对于本机内大量拷贝文件,有人提供了一个
nocache命令(https://github.com/Feh/nocache Debian/Ubuntu已经收录了这个工具 https://packages.debian.org/search?keywords=nocache )。它的功能是临时禁用cache,用法是将要执行的命令用nocache包住,比如:nocache cp -a ~/ /mnt/backup/home-$(hostname)
,但rsync会使用网络通讯,所以nocache rsync对远端没有作用( *Note however, that rsync uses sockets, so if you try a nocache rsync, only the local process will be intercepted.) - 也有人在多年以前给rsync提交了一个补丁(https://bugzilla.samba.org/show_bug.cgi?id=9560 ),增加了
--drop-cache选项,但遗憾的是没被接纳,说是过于linux-specific,开发人员的意见(见comment 3 )是改用nocache:nocache rsync -aiv --rsync-path='nocache rsync' some-host:/src/ /dest/. P.S. nocache工具的主页最后在acknowledgements部分 说,其实它是衍生自rsync的这个补丁的。
参考资料:
- kernel - Can I copy large files faster without using the file cache? - Ask
- linux - How can I limit the cache used by copying so there is still memory
已经备份过的文件不再重复拷贝(从旧备份硬链接未修改过的文件)
场景:要求每天建立一个备份。因为数据量很大,所以从备份速度、空间占用上来说,期望重复文件就不要重复拷贝了
第一个版本是这样的:
rm -rf backup.2
mv backup.1 backup.2
cp -al backup.0 backup.1
rsync -a -l --delete source_dir backup.0
在上面的脚本中,多个备份之间的硬链接是依靠cp -a -l来建立的,而新增的文件依靠rsync -a -l也可以尽量硬链接已有的文件。
但这个脚本有点问题: 如果文件内容没变,只是文件属性(属主、修改时间、权限)发生变化的话,rsync不会重新拷贝文件,而是直接修改原文件的属性,而由于采用了硬链接,backup.1和backup.2等旧备份目录里面的文件属性也发生了变化!
解决这个问题的方法是改为:
rm -rf backup.2
mv backup.1 backup.2
mv backup.0 backup.1
rsync -a --link-dest=backup.1 source_dir backup.0
注意这里的--link-dest=backup.1,它的含义是:先到backup.1这个目录找找有没有一样的文件,有的话将其硬链接到目标目录(backup.0),没有的话再拷贝。属性的变化会认为是不同的文件,会生成新拷贝。
如果文件属性的变化对于你的场景没有场景,那么两种方法都可以用,第一种方法还能少一些拷贝文件。
参考资料
- Incremental, Snapshot-based Backup with Rsync and SSH
- Easy Automated Snapshot-Style Backups with Rsync
打包(archive)差异备份文件
场景:比较老的备份打包后转到其它机器(或者磁带机)上,每周一次全量备份,然后每天的增量单独打包
rsync -a --compare-dest=backup.week backup.1 backup.incremental-20150604
cd backup.incremental-20150604
tar zcvf ../backup.incremental-20150604.tar.gz *
--compare-dest的含义跟上面--link-dest类似:先到这个参数指定的目录找找有没有想要的文件,如果没有再从源目录拷贝
rsync用于数据迁移/备份的几个细节的更多相关文章
- Docker数据卷Volume实现文件共享、数据迁移备份(三)--技术流ken
前言 前面已经写了两篇关于docker的博文了,在工作中有关docker的基本操作已经基本讲解完了.相信现在大家已经能够熟练配置docker以及使用docker来创建镜像以及容器了.本篇博客将会讲解如 ...
- Docker数据卷Volume实现文件共享、数据迁移备份(三)
数据卷volume功能特性 数据卷 是一个可供一个或多个容器使用的特殊目录,实现让容器中的一个目录和宿主机中的一个文件或者目录进行绑定.数据卷 是被设计用来持久化数据的对于数据卷你可以理解为NFS中的 ...
- [Sqlite]-->数据迁移备份--从低版本号3.6.2到高版本号3.8.6
引子: 1. Sqlite在Windows.Linux 和 Mac OS X 上的安装过程 2.嵌入式数据库的安装.建库.建表.更新表结构以及数据导入导出等等具体过程记录 个字段IPHONE和LOGI ...
- linux之rsync远程数据同步备份
rsync服务是一种高效的远程数据备份的工具,该服务的port号为873, 是Liunx下的一种非独立服务.由xinetd超级服务管理,取代监听873port. 长处: 1.rsync能够利用ssh和 ...
- rsync实现数据增量备份
环境说明: 主机ip:192.168.0.201 需备份的目录:/opt/mail 备份机器ip:192.168.0.215 1.编辑/etc/rsyncd.conf文件(etc目录不存在的话,需要手 ...
- MongoDB 数据迁移 备份 导入(自用)
MongoDB bin文件夹下 备份:mongodump -h IP:PORT -d 库名 -c 集合名 -o 存储路径 恢复:mongorestore -h IP:PORT -d 库名 -c 集合名 ...
- MySQL大数据迁移备份
MySQL迁移通常使用的有三种方法: 1.数据库直接导出,拷贝文件到新服务器,在新服务器上导入. 2.使用第三方迁移工具. 3.数据文件和库表结构文件直接拷贝到新服务器,挂载到同样配置的MySQL ...
- shell mysql数据迁移/备份
保存为.sh文件,配置运行即可 #!/bin/bash #### change the values below where needed..... #### 多数据库DBNAMES="My ...
- EF Core数据迁移操作
摘要 在开发中,使用EF code first方式开发,那么如果涉及到数据表的变更,该如何做呢?当然如果是新项目,删除数据库,然后重新生成就行了,那么如果是线上的项目,数据库中已经有数据了,那么删除数 ...
随机推荐
- 不一样的go语言之入门篇-Hello World
这是<不一样的go语言>的开篇之作,我尝试以java语言转变者的角度来聊一聊go语言.所以今天先从go语言的基础开始,即语法. 学习一门新的编程语言,必从语法开始.但需要注意的是, ...
- 聊聊kafka结构
因为kafka用到的地方比较多,日志收集.数据同步等,所以咱们来聊聊kafka. 首先先看看kafaka的结构,producer将消息放到一个Topic然后push到broker,然后cosumer从 ...
- Java并发编程快速学习
上周的面试中,被问及了几个关于Java并发编程的问题,自己回答的都不是很系统和全面,可以说是"头皮发麻",哈哈.因此果断购入<Java并发编程的艺术>一书,学习后的体会 ...
- Java内存管理-程序运行过程(一)
勿在流沙住高台,出来混迟早要还的. 做一个积极的人 编码.改bug.提升自己 我有一个乐园,面向编程,春暖花开! 相信在做Java开发的伙伴一定知道 JVM(Java Virtual Machine( ...
- [软件研究]对AMH面板的研究
0x00 前言 继续研究,这次来看一下AMH面板,图截自官网 就让我们来看看这个多个"首个"的面板做的怎么样吧. 0x01 安装 官方提供了两种安装方式,一是极速安装,二是编译安装 ...
- 【Android】窗口机制分析与UI管理系统
类图关系 在看Android的窗口机制之前,先看看其主要的类图关系以及层级之间的依赖与调用关系 1.window在当前的android系统的中的呈现形式是PhoneWindow (frameworks ...
- Codeforces.788C.The Great Mixing(bitset DP / BFS)
题目链接 \(Description\) 有k种饮料,浓度Ai给出,求用最少的体积配成n/1000浓度的饮料. \(Solution\) 根据题意有方程 (A1x1+A2x2+...+Anxn)/[( ...
- Oracle ORA-12541:TNS:无监听程序
背景:自己机子做oracle服务器,其他机子可以ping得通我的机子,但是jdbc就是连不上,后来用plsql连出现无监听程序.... 我昨天重新安装Oracle后,用PL/SQL Developer ...
- 使用gulp对js、css、img进行合并压缩
1 概述 最新使用AngularJS框架做单页面项目,其中包括了很多库的和自已写的js.css.img文件,这些文件都不大,但是数量众多,导致web请求文件过多,一次性加载时比较慢.有尝试过使用异步加 ...
- Matplotlib新手上路(下)
接上篇继续,这次来演示下如何做动画,以及加载图片 一.动画图 import numpy as np import matplotlib.pyplot as plt import matplotlib. ...