三个月我迁移了100PB数据
2023年马上结束,这一年做了不少事情,有一项我可以吹好几年,忍不住和大家分享一下啊。
需求
去年底收到一项需求,要求2个月内从某云存储迁移100PB数据到微软云存储,包含几百亿个文件。当时听到这个数字我都惊呆了,别说100PB,100TB之前我都没迁移过,心里完全没底。但是老板说部门目前没有开发人员可以干这个项目,希望我能带队参与。没办法,我只能顶着巨大的压力参与项目的推进,核心开发人员就4位,还有售前架构师若干。
第一步就是和客户对接了解业务需求和当前数据现状,分析下来发现有几点要处理:
- 客户有很多零碎小文件,这部分带宽利用率不高,肯定无法在规定时间内传完的,需要排除在本次任务范围外。
- 存在很多文件有事务性,文件级别传输无法保证业务数据一致性,这部分文件一般是各种数据表,但总量占比低,需要单独处理。
- 传输期间数据源不下线,意味着要做增量传输。
- 跨云传输带宽上限不确定有多大,一开始以500Gbps为目标,后来发现天真了。
以上只是一小部分问题,实际数个月项目做下来积攒了一堆问题。
这个项目工期太紧,而且数据量巨大,传输一次就要数十万美元的流量费,只能成功不能失败,代价及其巨大!
技术方案及开发
回到开发部分,我们是4人的小型敏捷团队,我担任开发兼项目经理兼架构师。我们只花了2天时间就完成了各种方案和工具调研,并给出了设计的传输方案。
- 开源数据迁移工具,如 Hadoop 集群 distcp 远程拷贝
Apache DistCp 是一个开源工具,可用于复制大量数据。用户可以将 DistCp 命令作为一个步 骤添加到 Hadoop 集群中。使用 DistCp,用户可以高效地将大量数据从来源云存储复制到目标 HDFS 存储服务中。

DistCp使用MapReduce以分布式方式进行复制。它将文件和目录列表扩展为映射任务的输入,每个任务将复制源列表中指定的文件的分区。它跨多个服务器调度复制、错误处理、恢复和报告结果等任务。因此我们经常在Hadoop集群之间使用DistCp进行大规模分布式数据复制。

该方案优点如下:
- 开源工具,无任何许可成本
- 支持Hadoop集群间大规模复制数据
- 对HDFS支持很完善
- Apache基金会项目,项目持续被维护更新
缺点:
- 存在功能使用限制,如不能在预先存在的目标目录下创建父源目录等问题
- 云端Hadoop集群使用需要适配并集成DistCp驱动
- 难以定制复制逻辑,拓展性差
- 无法限制带宽占用
- 无法处理来源云存储中文件发生版本更新的情况,不满足需求
- 商用SaaS数据迁移方案,如Azure Data Factory、AWS Glue、GCP Cloud Data Fusion等
以Azure Data Factory为例,它是基于云的ETL和数据集成服务,可让你创建数据驱动型工作流,用于大规模调度数据移动和转换数据。可以使用Azure数据工厂创建和计划数据驱动型工作流(称为管道),以便从不同的数据存储引入数据,同时直观地转换数据到目标存储中。

但该类SaaS产品传输性能有限无法满足当前项目的高性能要求,适合常规数据迁移任务。
因此无论是商用的传输服务还是开源的Apache DistCp,都不能做到在规定时间内完成如此高的传输目标,最终还是决定自己定制化开发传输应用。
对此我们设计了如下关键特性:
- 采用1 Master Node,N个Work Node模式,实现分布式并行调度任务机制
- 采用高可用设计,单个复制任务应当能够自动重试
- 能够限制带宽调用
- 分布式数据存储
- 完整的任务记录
- 高性能。能够吞吐量达到250Gbps
我们对AzCpoy工具做了深度魔改,为此我临时学了Go语言,将其从单机程序修改为可以群集化弹性扩张的分布式并行数据复制应用,运行在复制节点上。针对大规模任务,我们还开发了控制程序,负责管理和派发复制任务给复制节点,并引入了额外的消息队列和Redis缓存,来实现整个分布式系统的调度。

针对并发任务的监控,我们额外引入了Azure CosmosDB作为高性能可弹性扩容的NoSQL数据库,能够承受每秒数万次的查询和写入。此外还针对增量更新文件的场景,开发了事件驱动的应用,用于侦听来源云存储的文件更新事件,异步触发数据复制任务。
整套系统我们只花了1周时间就开发完成第一个版本,额外花了1周进行测试。4个开发每天除了吃饭睡觉就在写代码,投入了巨大的心血,特别敬业。
上线
去年元旦我们的分布式复制系统正式上生产,结果第一天就出bug了,数据迁移数小时后卡住。经过紧急排查发现是调度程序的循环逻辑存在问题,永远跳不出来,这是相当低级的错误。主要原因还是工期太赶,大家各干各的,没有互联交叉审阅代码,因此质量不高。紧急修复后,重新上线。
结果第二天收到迁移来源的云存储厂商投诉,因为我们的复制速度太快,已经挤爆了他们公网400Gbps总带宽,影响其他客户的使用。如果不限制数据迁移任务,将会在平台层面封掉数据流量。
这点我很欣慰,至少证明我们开发的工具性能极高,有多少带宽可以占满多少。因此紧急着手限速工作,最后将传输的吞吐速度限制在200-250Gbps。
上线第一个月,我们就传输了50PB的数据。最终传输了100PB的数据,整个过程中我们的工具总体鲁棒性不错,比较符合设计预期。
总结
那几个月是我8年职业生涯以来压力最大的时间,也是我这些年来做过最具挑战性的项目。当然输出的成果也非常牛,这个牛我可以吹好多年。从来没想到我们可以做到这么超大规模的任务,仅仅流量费就要几十万美元,测试一次就要几千美元,烧掉好多台iPhone。
面对极限的压力,我们程序员总能爆发出超乎想象的能力,完全吹爆!!!
三个月我迁移了100PB数据的更多相关文章
- mysql迁移之巨大数据量快速迁移方案
mysql迁移之巨大数据量快速迁移方案-增量备份及恢复 --chenjianwen 一.前言: 当mysql库的大小达到几十个G或者上百G,迁移起来是一件非常费事的事情,业务中断,导出导入耗费大量的时 ...
- 巧用 JuiceFS Sync 命令跨云迁移和同步数据
近年来,云计算已成为主流,企业从自身利益出发,或是不愿意被单一云服务商锁定,或是业务和数据冗余,或是出于成本优化考虑,会尝试将部分或者全部业务从线下机房迁移到云或者从一个云平台迁移到另一个云平台,业务 ...
- 利用Linode面板Clone克隆搬家迁移不同VPS数据及利用IP Swap迁移IP地址
在众多海外VPS服务商中,老蒋个人认为Linode提供的VPS方案和性价比还是比较高的,尤其目前基础1GB方案仅需10美元每月且全部是SSD固态硬盘,无论是流量还是硬盘大小,基本上可以满足我们大部分用 ...
- [DeeplearningAI笔记]卷积神经网络2.9-2.10迁移学习与数据增强
4.2深度卷积网络 觉得有用的话,欢迎一起讨论相互学习~Follow Me 2.9迁移学习 迁移学习的基础知识已经介绍过,本篇博文将介绍提高的部分. 提高迁移学习的速度 可以将迁移学习模型冻结的部分看 ...
- Oracle 12C 新特性之在线重命名、迁移活跃的数据文件
Oracle 数据库 12c 版本中对数据文件的迁移或重命名不再需要太多繁琐的步骤,可以使用 ALTER DATABASE MOVE DATAFILE 这样的 SQL 语句对数据文件进行在线重命名和移 ...
- impala 表迁移方式 partquet数据文件移动方法
1.原表查询:select count(*) from edm.ucard_wxd0123 where stat_dt = '2024-01-09' and id_no = '110101199003 ...
- 使用 FTP 迁移 SQL Server 数据_迁移数据_快速入门(SQL Server)_云数据库 RDS 版-阿里云
背景信息 阿里云数据库 SQL Server 版导入数据有如下限制: 仅支持导入 SQL Server 2005.SQL Server 2008.SQL Server 2008R2 版本数据 仅支持全 ...
- laravel7 数据迁移及填充数据
1:置迁移数据表,创建生成模型和迁移文件: php artisan make:model Article -m 2:接着,在框架中的database/migrations文件夹中找到刚创建的用户表Ar ...
- mysql查询出近一周,三个月,一年的数据
SELECT * FROM 表名 WHERE 时间字段>DATE_SUB(CURDATE(), INTERVAL YEAR) 一年 SELECT * FROM 表名 WHERE 时间字段> ...
- Ubuntu18修改/迁移mysql5.7数据存放路径
1.停止mysql服务 sudo service mysql stop 2.修改mysql配置文件,一般是 /etc/mysql/my.cnf,或者/etc/mysql/mysql.conf.d/my ...
随机推荐
- 利用BGP Anycast 实现DNS 服务的高可用测试
一.背景 根据当前某公司内部生产系统容器平台架构设计,在各生产线边缘机房部署容器平台,与数据中心容器平台形成纵向冗余,在此情况下,传统部署在数据中心机房的DNS系统成为容器平台业务服务的短板, ...
- vue 甘特图(三):甘特图右侧内容拖动展示
vue3 甘特图(三):甘特图右侧内容拖动展示内容 解决因多个项目周期跨度不同,在一页屏幕里展示不完全,需要通过拖动甘特图下方的滚动条,去查看对应时间段内的内容 拖拽滚动视图,展示对应时间甘特图 构思 ...
- 产品代码都给你看了,可别再说不会DDD(七):实体与值对象
这是一个讲解DDD落地的文章系列,作者是<实现领域驱动设计>的译者滕云.本文章系列以一个真实的并已成功上线的软件项目--码如云(https://www.mryqr.com)为例,系统性地讲 ...
- ubuntu 20.1 (linux) 下软件安装教程(基本上都是使用命令行安装)
一.node 1. 安装教程 # 第二步,添加源后安装 需要什么版本直接替换后面的数字即可,如果需要21,直接将20替换为21就可以了 curl -sL https://deb.nodesource. ...
- js数据结构--栈
<!DOCTYPE html> <html> <head> <title></title> </head> <body&g ...
- 数组操作 filter和find
现在有个需求: 后端给一个list过来,1-4,有就显示,没有前面四个card就空着,从第五个开始,有数据就循环出来,区别他们的kind字段. 这里想了很久怎么写,最后决定,洗数据. 就是从给给的数据 ...
- Python 用户输入和字符串格式化指南
Python 允许用户输入数据.这意味着我们可以向用户询问输入.在 Python 3.6 中,使用 input() 方法来获取用户输入.在 Python 2.7 中,使用 raw_input() 方法 ...
- Java Springbool敏感词过工具类滤
Java Springbool敏感词过工具类滤 1. 功能描述利用前缀树这种数据结构,设计并开发出敏感词过滤工具. 2. 构建敏感词表resource/sensitive-words.txt 3. 敏 ...
- Redis 哨兵模式的原理及其搭建
1.Redis哨兵 Redis提供了哨兵(Sentinel)机制来实现主从集群的自动故障恢复. 1.1.哨兵原理 1.1.1.集群结构和作用 哨兵的结构如图: 哨兵的作用如下: 监控:Sentinel ...
- Python 利用pandas和matplotlib绘制柱状折线图
创建数据可视化图表:柱状图与折线图结合 在数据分析和展示中,经常需要将数据可视化呈现,以便更直观地理解数据背后的趋势和关联关系.本篇文章将介绍如何使用 Python 中的 Pandas 和 Matpl ...