Morphling:云原生部署 AI , 如何把降本做到极致?
简介: Morphling 本意是游戏 Dota 中的英雄“水人”,他可以根据环境要求,通过灵活改变自身形态,优化战斗表现。我们希望通过 Morphling 项目,实现针对机器学习推理作业的灵活、智能的部署配置改变,优化服务性能,降低服务部署成本。
随着云原生技术的蓬勃发展和其日渐成熟的产业落地,云上机器学习正向大规模、工业化方向迅速挺进。
近期,Morphling 作为阿里巴巴开源的 KubeDL 其中一个独立的子项目,成为云原生计算基金会(CNCF)Sandbox 项目。旨在为大规模工业部署机器学习模型推理(model inference)服务,提供自动化的部署配置调优、测试和推荐,在 GPU 虚拟化与复用技术日趋发展成熟的大环境下,帮助企业充分享受云原生优势,优化在线机器学习服务性能,降低服务部署成本,高效地解决机器学习在产业实际部署中的性能和成本挑战。此外,Morphling 项目相关学术论文 "Morphling: Fast, Near-Optimal Auto-Configuration for Cloud-Native Model Serving",被 ACM Symposium on Cloud Computing 2021 (ACM SoCC 2021)接收。
Morphling 本意是游戏 Dota 中的英雄“水人”,他可以根据环境要求,通过灵活改变自身形态,优化战斗表现。我们希望通过 Morphling 项目,实现针对机器学习推理作业的灵活、智能的部署配置改变,优化服务性能,降低服务部署成本。
背景
云上机器学习的工作流,可以分为模型训练(model training)和模型推理(model serving)两部分:模型在离线训练、调优测试完成之后,会以容器的方式部署为在线应用,为用户提供不间断的高质量推理服务,例如在线直播视频中的目标物品识别、在线语言翻译工具、在线图片分类等。例如,阿里巴巴内部的淘系内容社交平台 Machine Vision Application Platform(MVAP),通过在线机器学习推理引擎,支持淘系直播商品看点识别、直播封面图去重、逛逛图文分类等业务。根据英特尔的数据,大规模推理 ("Inference at Scale") 时代将至:到 2020 年,推理与训练周期比率超过 5:1;亚马逊的数据显示,2019 年亚马逊 AWS 在模型推理服务上的基础设施开销,占到其机器学习任务总开销的 90% 以上。机器学习推理已经成为人工智能落地和“变现”的关键。


云上推理任务
推理服务本身是一种特殊的 long running 微服务形态,随着云上推理服务日趋增长的部署体量,其成本和服务性能,成为至关重要的优化指标。这要求运维团队对推理容器,在部署前进行合理的配置优化,包含硬件资源配置、服务运行参数配置等。这些优化配置,在协调服务性能(例如响应时间、吞吐率)和资源使用效率中,起到至关重要的作用。在实践中,我们的测试发现, 不同的部署配置会带来高达十几倍的吞吐率/资源使用率的差距。
我们依托阿里大量的 AI 推理服务经验,首先总结了推理业务,相对于传统服务部署的配置有以下特性:
- 使用昂贵的显卡资源,但显存用量低:GPU 虚拟化与分时复用技术的发展和成熟,让我们有机会在一块 GPU 上同时运行多个推理服务,显著降低成本。与训练任务不同,推理任务是使用训练完善的神经网络模型,将用户输入信息,通过神经网络处理,得到输出,过程中只涉及神经网络的前向传输(Forward Propagation),对显存资源的使用需求较低。相比之下,模型的训练过程,涉及神经网络的反向传输(Backward Propagation),需要存储大量中间结果,对显存的压力要大很多。我们大量的集群数据显示,分配给单个推理任务整张显卡,会造成相当程度的资源浪费。然而如何为推理服务选择合适的 GPU 资源规格,尤其是不可压缩的显存资源,成为一个关键难题。
- 性能的资源瓶颈多样:除了 GPU 资源,推理任务也涉及复杂的数据前处理(将用户输入 处理成符合模型输入的参数),和结果后处理(生成符合用户认知的数据格式)。这些操作通常使用 CPU 进行,模型推理通常使用 GPU 进行。对于不同的服务业务,GPU、CPU 以及其他硬件资源,都可能成为影响服务响应时间的主导因素,从而成为资源瓶颈。
- 此外,容器运行参数的配置,也成为业务部署人员需要调优的一个维度:除了计算资源外,容器运行时参数也会直接影响服务 RT、QPS 等性能,例如容器内服务运行的并发线程数、推理服务的批处理大小(batch processing size)等。
最佳化推理服务部署配置
以 Kubernetes 为主流的云原生技术,正在以丰富的形态被广泛用于新的应用负载 ,将机器学习任务(包括训练和推理)构建在 Kubernetes 上,并实现稳定、高效、低成本的部署,成为各大公司推进AI项目、服务上云的重点和关键。Kubernetes 框架下的推理容器配置,业界还在不断探索与尝试。
- 最常见的模式是根据人为经验,手动配置参数,简单但低效。实际情况常常是:服务部署人员站在集群管理者的角度,为了保证服务质量,倾向于配置较多的资源冗余,在稳定性和效率之间选择牺牲后者,造成大量资源浪费;或对运行参数直接采用默认值进行配置,损失了性能优化机会。
- 另一个可选的方案是,基于资源历史水位画像,进一步细化优化资源配置。但我们的观察和实践发现,日常资源水位不能体现服务压测时的流量高峰,无法评估服务能力上限;其次,对于新上线的业务,普遍缺乏可靠的历史水位信息可供参考;另外,由于机器学习框架的特性,GPU 显存的历史用量通常不能正确反映应用对显存的真实需求;最后,对于容器内部程序运行参数的调优,从历史数据的角度缺少足够的数据支持。
总体来说,虽然在更通用的超参调优方面,Kubernetes 社区有一些自动化参数推荐的研究和产品,但业界缺少一款直接面向机器学习推理服务的云原生参数配置系统。
我们依托阿里大量的AI推理服务经验,总结发现,推理业务配置调优的痛点在于:
- 缺少自动化性能测试、参数调优的框架:迭代式的手动调整配置-服务压测,给部署测试带来巨大人工负担,使这一方向在现实下成为不可能的选项。
- 稳定和非侵入式的服务性能测试流程:在生产环境下对在线服务直接进行部署测试,会影响用户体验。
- 要求高效的参数组合调优算法:考虑到需要配置的参数数量增多时,联合调试多维度参数的组合优化配置,对调优算法提出了更高的效率要求。
Morphling
针对上述难题,阿里巴巴云原生集群管理团队和开发并开源了基于 Kubernetes 的机器学习推理服务配置框架——Morphling,将参数组合调优全流程自动化,并结合高效的智能化调优算法,使推理业务的配置调优流程,能够高效地运行在 Kubernetes 之上,解决机器学习在产业实际部署中的性能和成本挑战。
Morphling 对参数调优的过程进行了不同层次的云原生抽象,提供给用户简洁且灵活的配置接口,将底层的容器操作、数据通信、采样算法、和存储管理封装在控制器中。具体来说,Morphling 的参数调优-性能压测,采用 experiment-trial 工作流程。
- Experiment 作为最贴近用户的一层抽象,通过交互,由用户指定机器学习模型的存储位置、待调优的配置参数、测试数量上限等,定义一次具体的参数调优作业。
- 对于每个参数调优作业 experiment,Morphling 定义了另一层抽象:trial。Trial 封装了针对某一特定参数组合的一次性能测试流程,涵盖了底层的 Kubernetes 容器操作:每个 trial 中,Morphling 根据测试参数组合,配置并启动推理服务容器,检测服务的可用性和健康状态,并对服务进行压力测试,测量该配置下容器的服务性能,例如响应时间延迟、服务吞吐量、资源使用效率等。测试结果将存储在数据库中,并反馈给 experiment。
- Morphling通过智能的超参调优算法,选择少量配置组合进行性能测试(trial),每轮测试结果作为反馈,来高效选择下一组待测参数。为了避免穷举方式的规格点采样,我们采用贝叶斯优化作为画像采样算法的内部核心驱动,通过不断细化拟合函数,以低采样率(<20%)的压测开销,给出接近最优的容器规格推荐结果。
通过这样迭代式的采样-测试,最终反馈给业务部署人员优化的配置组合推荐。
同时,Morphling 提供了管控套件:Morphling-UI,方便业务部署团队在可界面化上,通过简单易用的操作,发起推理业务配置调优 experiment、监控调优过程、比较调优结果。
Morphling 在淘系内容社交平台中的实践
阿里巴巴内部丰富的在线机器学习推理场景和大量的推理服务实例需求,为 Morphling 的落地验证提供了第一手的落地实践和测试反馈。其中,阿里淘系内容社交平台Machine Vision Application Platform(MVAP)团队,通过在线机器学习推理引擎,支持淘系直播商品看点识别、直播封面图去重、逛逛图文分类等业务。
在 2020 年双十一期间,我们通过 Morphling 对 AI 推理容器进行了规格测试、优化,寻找性能和成本之间的最优解,同时算法工程团队进而对这些资源消耗型的推理模型,例如淘系视频看点服务,做出针对性的模型量化、分析,并从 AI 模型设计角度进行优化,以最少的资源支持了双十一的洪峰流量,同时保证业务的性能不下降,极大的提高 GPU 利用率和降低了成本。
学术探索
为了提高推理服务参数调优过程的效率,阿里巴巴云原生集群管理团队,针对推理业务的特性,进一步探索了使用元学习(meta-learning)和小样本回归(few-shot regression)实现更高效的、低采样成本的配置调优算法,应对实际业界“快速、小样本采样、低测试成本”的调优要求,以及面向云原生且自动化的调优框架。相关学术论文 "Morphling: Fast, Near-Optimal Auto-Configuration for Cloud-Native Model Serving",被ACM Symposium on Cloud Computing 2021 (ACM SoCC 2021)接收。
近年,云上 AI 推理任务的优化部署相关主题活跃在各大云计算、系统相关的学术期刊和会议,成为学术界探索的热点。探索的主题主要包括,AI 模型的动态选择、部署实例的动态阔缩容、用户访问的流量调度、GPU 资源的充分利用(例如模型动态加载、批处理大小优化)等。然而,从大规模业界实践出发,最佳化容器级别的推理服务部署这一问题的研究,尚属首次。
算法方面,性能调优作为经典的超参数优化(hyper-parameter tuning)问题。传统超参调优方法例如贝叶斯优化,难以面对高维度(多配置项)且大搜索空间的调优问题。例如,对于 AI 推理任务,我们在 CPU 核数、GPU 显存大小、批处理 batch size、GPU 型号这四个维度(配置项)进行“组合优化”式的超参调优,每个配置项有 5~8 个可选参数。这样,组合情况下的参数搜索空间就高达 700 个以上。基于我们在生产集群的测试经验积累,对于一个 AI 推理容器,每测试一组参数,从拉起服务、压力测试、到数据呈报,需要耗时几分钟;与此同时,AI 推理业务的种类繁多,更新迭代频繁,部署工程师人力有限,测试集群成本有限。要在这样大的搜索空间内,高效地测试出最优的配置参数,对超参调优算法提出了新的挑战。
在这篇论文中,我们的核心观察是,对于不同的 AI 推理业务,其需要优化各项的配置(例如 GPU 显存、批处理大小)对于容器的服务性能(例如 QPS)影响,“趋势稳定且相似”,表现在可视化的“配置-性能”曲面上,体现为,不同AI推理实例,“配置-性能”曲面的形状相似,但配置对性能的影响程度和关键节点,在数值上各不相同:
上图可视化了三种 AI 推理模型,其<CPU 核数、GPU显存大小>的二维配置,对容器服务吞吐量 RPS 的影响。论文提出,使用 Model-Agnostic Meta-Learning(MAML)对这些共性进行提前学习,训练出元模型,从而对新的 AI 推理性能测试,快速找到曲面中的关键节点,以元模型出发,作出小样本下(5%)的精确拟合。
总结
Morphling 基于的 Kubernetes 机器学习推理服务配置框架,结合“快速、小样本采样、低测试成本”的调优算法,实现了面向云原生的自动化且稳定高效的 AI 推理部署调优流程,更快地赋能部署流程的优化和迭代,加速机器学习业务应用的上线。Morphling 和 KubeDL 的结合,也会使得 AI 从模型训练,到推理部署的配置调的优体验更为流畅。
原文链接
本文为阿里云原创内容,未经允许不得转载。
Morphling:云原生部署 AI , 如何把降本做到极致?的更多相关文章
- BSS应用程序云原生部署的8大挑战
云原生部署改变了软件开发.根据云原生计算基金会(CNCF)2021年年度调查,96%的组织正在使用或评估Kubernetes.更确切地说,560万开发者在使用Kubernetes,比去年增加了67%. ...
- Apache ShardingSphere 5.1.2 发布|全新驱动 API + 云原生部署,打造高性能数据网关
在 Apache ShardingSphere 5.1.1 发布后,ShardingSphere 合并了来自全球的团队或个人的累计 1028 个 PR,为大家带来 5.1.2 新版本.该版本在功能.性 ...
- 云原生的弹性 AI 训练系列之一:基于 AllReduce 的弹性分布式训练实践
引言 随着模型规模和数据量的不断增大,分布式训练已经成为了工业界主流的 AI 模型训练方式.基于 Kubernetes 的 Kubeflow 项目,能够很好地承载分布式训练的工作负载,业已成为了云原生 ...
- 最佳案例 | 游戏知几 AI 助手的云原生容器化之路
作者 张路,运营开发专家工程师,现负责游戏知几 AI 助手后台架构设计和优化工作. 游戏知几 随着业务不断的拓展,游戏知几AI智能问答机器人业务已经覆盖了自研游戏.二方.海外的多款游戏.游戏知几研发团 ...
- AI云原生浅谈:好未来AI中台实践
AI时代的到来,给企业的底层IT资源的丰富与敏捷提出了更大的挑战,利用阿里云稳定.弹性的GPU云服务器,领先的GPU容器化共享和隔离技术,以及K8S集群管理平台,好未来通过云原生架构实现了对资源的灵活 ...
- 重磅!业界首个云原生批量计算项目Volcano正式晋级为CNCF孵化项目
摘要:4月7日,云原生计算基金会(CNCF)宣布,由华为云捐献的业界首个云原生批量计算项目Volcano正式晋级为CNCF孵化项目. 4月7日,云原生计算基金会(CNCF)宣布,由华为云捐献的业界首个 ...
- 腾讯TencentOS 十年云原生的迭代演进之路
导语 TencentOS Server (又名 Tencent Linux 简称 Tlinux) 是腾讯针对云的场景研发的 Linux 操作系统,提供了专门的功能特性和性能优化,为云服务器实例中的应用 ...
- 腾讯云原生数据库TDSQL-C入选信通院《云原生产品目录》
近日,中国信通院.云计算开源产业联盟正式对外发布<云原生产品目录>,腾讯云原生数据库TDSQL-C凭借其超强性能.极致效率的弹性伸缩和完善的产品化解决方案体系,成功入围目录. 全球数字经济 ...
- TKE 注册节点,IDC 轻量云原生上云的最佳路径
林顺利,腾讯云原生产品经理,负责分布式云产品迭代和注册节点客户扩展,专注于云原生混合云新形态的推广实践. 背景 企业在持续业务运维过程中,感受到腾讯云 TKE 带来的便捷性和极致的使用体验,将新业务的 ...
- 未来云原生世界的“领头羊”:容器批量计算项目Volcano 1.0版本发布
在刚刚结束的CLOUD NATIVE+ OPEN SOURCE Virtual Summit China 2020上,由华为云云原生团队主导的容器批量计算项目Volcano正式发布1.0版本,标志着V ...
随机推荐
- [C++]使用auto遍历判断是否是最后一个元素
一.背景 略 二.代码 for(auto& it:vec){ if(&it==&vec.back()){ cout<<"is the last eleme ...
- StableSwarmUI:功能强大且易于使用的Stable Diffusion WebUI
StableSwarmUI是一个模块化和可定制的Stable Diffusion WebUI,最近发布了0.6.1-Beta版本.这个开源项目,托管在GitHub上:https://github.co ...
- cmake:针对某些依赖 openssl-1.0 而机器上还有其他版本的 openssl
指定下列变量: -DOPENSSL_INCLUDE_DIR:指向 openssl-1.0 的 include 目录 -DOPENSSL_SSL_LIBRARIES:指向 openssl-1.0 的 l ...
- Java中一个逐渐被遗忘的强大功能,强到你难以置信!!
大家好,我是冰河~~ 说起Java,简单好用,但是Java中很多牛逼的技术却逐渐被遗忘了~~ 在Java语言出现之前,很多系统都是使用C和C++开发的.Java出现之后,由于其面向对象的思想更加符合人 ...
- 前端ajax调用后端下载Excel模板流,解决输出乱码等问题
JavaScript方法function importTemplate() { $.ajax({ url: "/importTemplate", type: "get&q ...
- Scala Map操作
1 package chapter07 2 3 object Test14_HighLevelFunction_Map { 4 def main(args: Array[String]): Unit ...
- #分治,Dijkstra#洛谷 3350 [ZJOI2016]旅行者
题目 给定一张\(n*m\)的网格图,\(q\)次询问两点之间距离 \(n*m\leq 2*10^4,q\leq 10^5\) 分析 首先floyd会TLE,考虑两点间距离可以由两段拼凑起来, 那么枚 ...
- 高能有料 | 第二届OpenHarmony技术大会议程速递
第二届开放原子开源基金会OpenHarmony技术大会如约而至 让我们一起 开封无限惊喜的技术成果 开放无限前沿的议题干货 开启无限可能的未来之门 点击此处报名参会!
- 从入门到精通:C++ 学习路线指南,附详细学习计划
C++是一种高级编程语言,广泛用于开发操作系统.应用程序.游戏和各种工具.如果你想学习这门语言,以下是一个适合初学者的学习路线: 第一步:学习C++基础知识 在学习C++之前,你需要掌握一些基础知识, ...
- Websphere更新应用文件
说明: 由于war包中存在安全漏洞或者需要变更里面的某个jar包,此处列举了两种更新方法,不需要重启服务器,只需重启应用. Websphere对部署好的应用更新jar包方法如下: 方式一.手动替换 ...