马萨诸塞州韦克菲尔德(Wakefield,MA)- 2020年6月 - Apache软件基金会(ASF).350多个开源项目和全职开发人员.管理人员和孵化器宣布:Apache Hudi正式成为Apache顶级项目(TLP).在投票表决Hudi毕业时,Hudi总共获得了19票binding(其中包括ASF联合创始人Jim Jagielski的一票),21票non-binding. Apache Hudi(Hadoop Upserts Delete and Incremental)数据湖技术可在Ap…
全球最大的开源软件基金会 Apache 软件基金会(以下简称 Apache)于北京时间 2021年4月9日在官方渠道宣布Apache DolphinScheduler 毕业成为Apache顶级项目.这是首个由国人主导并贡献到 Apache 的大数据工作流调度领域的顶级项目. DolphinScheduler 已经是联通.IDG.IBM.京东物流.联想.新东方.诺基亚.360.顺丰和腾讯等 400+ 公司在使用的分布式可视化大数据工作流调度系统. DolphinScheduler于2019年8月2…
各位 Pulsar 社区小伙伴们: 今天我们高兴地宣布Pulsar 达成新里程碑,全球贡献者超 300 位! 距离 Pulsar 实现 200 位贡献者里程碑,仅仅间隔 8 个月! 作为 Apache 软件基金会顶级项目,Pulsar 深深植根于社区,取得如此成就也正是得益于自身强大的社区和贡献者群体.感谢 Pulsar 贡献者及社区小伙伴:因你而社区,因你而 Pulsar! Pulsar 是下一代云原生分布式消息流系统,集消息.存储.轻量化函数式计算为一体,源于 Yahoo,最初在 Yahoo…
ASF的开源项目,为软件行业贡献了太多好的产品和软件思维.学习ASF的项目源码能很大的提升自身的能力.程序运行在服务器上的流程:执行启动脚本(start.sh) -> 指向程序的主方法 -> 开始执行程序.所以学习其源码的入口应该在启动脚本开始. 测试环境的搭建: 我不喜欢把全部的源码倒入IDE中,我的学习(java项目)源码搭建方式是 1.创建java项目,关联Jar包 2.jar包关联源码 1.下载并解压apache-flume-1.7.0-bin.tar.gz和apache-flume-…
1. 引入 开源Apache Hudi项目为Uber等大型组织提供流处理能力,每天可处理数据湖上的数十亿条记录. 随着世界各地的组织采用该技术,Apache开源数据湖项目已经日渐成熟. Apache Hudi(Hadoop Upserts Deletes and Incrementals)是一个数据湖项目,可在与Apache Hadoop兼容的云存储系统(包括Amazon S3.Aliyun OSS)上进行流数据处理. 该项目最初于2016年在Uber开发,于2017年成为开源,并于2019年1…
1. 引言 从确保准确预计到达时间到预测最佳交通路线,在Uber平台上提供安全.无缝的运输和交付体验需要可靠.高性能的大规模数据存储和分析.2016年,Uber开发了增量处理框架Apache Hudi,以低延迟和高效率为关键业务数据管道赋能.一年后,我们开源了该解决方案,以使得其他有需要的组织也可以利用Hudi的优势.接着在2019年,我们履行承诺,进一步将其捐赠给了Apache Software Foundation,差不多一年半之后,Apache Hudi毕业成为Apache Softwar…
关于 Apache Pulsar Apache Pulsar 是 Apache 软件基金会顶级项目,是下一代云原生分布式消息流平台,集消息.存储.轻量化函数式计算为一体,采用计算与存储分离架构设计,支持多租户.持久化存储.多机房跨区域数据复制,具有强一致性.高吞吐以及低延时的高可扩展流数据存储特性. 本篇文章,我们将带着刚刚圆满结束的 Pulsar Summit 精华版内容,为大家分享 Apache Pulsar 的成长历史. 关于 Pulsar Summit 会议 本次 Pulsar Summ…
​Apache Hudi是一个开源的数据管理框架,其通过提供记录级别的insert, update, upsert和delete能力来简化增量数据处理和数据管道开发.Upsert指的是将记录插入到现有数据集中(如果它们不存在)或进行更新(如果它们存在的话)的功能.通过高效管理Amazon S3中数据的布局方式,Hudi允许近乎实时地提取和更新数据.Hudi维护在数据集上所执行的操作的元数据,以确保这些操作的原子性和一致性. Hudi可与Apache Spark.Apache Hive和Prest…
1. 引入 Apache Hudi是一个开源的增量数据处理框架,提供了行级insert.update.upsert.delete的细粒度处理能力(Upsert表示如果数据集中存在记录就更新:否则插入). Hudi处理数据插入和更新,不会创建太多的小文件(小文件会导致查询端性能降低),Apache Hudi自动管理及合并小文件,让其保持指定大小,这避免了自建解决方案来监控和重写小文件为大文件. Hudi数据集在如下场景下非常适用 使用GDPR和CCPA法规来删除用户个人信息或修改个人信息用途. 处…
官宣 | Apache Flink 1.12.0 正式发布,流批一体真正统一运行! 原创 Apache 博客 [Flink 中文社区](javascript:void(0) 翻译 | 付典 Review | 徐榜江.朱翥 Apache Flink 社区很荣幸地宣布 Flink 1.12.0 版本正式发布!近 300 位贡献者参与了 Flink 1.12.0 的开发,提交了超过 1000 多个修复或优化.这些修改极大地提高了 Flink 的可用性,并且简化(且统一)了 Flink 的整个 API…