摘要:由于目标和现实的错位,对很多用户来讲,Hadoop成了一个在技术.应用和成本上都很沉重的产品. 本文分享自华为云社区<Hadoop Spark太重,esProc SPL很轻>,作者:石臻臻的杂货铺. 随着大数据时代的来临,数据量不断增长,传统小机上跑数据库的模式扩容困难且成本高昂,难以支撑业务发展.很多用户开始转向分布式计算路线,用多台廉价的PC服务器组成集群来完成大数据计算任务.Hadoop/Spark就是其中重要的软件技术,由于开源免费而广受欢迎.经过多年的应用和发展,Hadoop已…