今天给大家带来的分享是基于 Apache DolphinScheduler 的数据质量检查实践,分享的内容主要为以下四点:

  • 为什么要做数据质量检查?

  • 为什么要基于 DolphinScheduler 做数据质量检查?

  • 基于 DolphinScheduler 的数据质量服务的设计和实现

  • 不足和规划

1 为什么要做数据质量检查

在今天,数据已经成为企业的新型资产,有效的数据能够支撑企业的分析和决策,而错误的数据却可能会带来负面的影响,我们一起来看下数据质量差会带来什么问题:

  • 数据可信度低

  • 影响数据分析和数据挖掘的准确性

  • 可能会导致错误的决策

  • 数据开发层面的工作越来越多,链路也越来越长,如果没有在一些关键的节点配置好相应的检查,一旦出现数据错误的问题就比较难定位。

由此可知做好数据质量监控是数据开发工作的重中之重,做好数据质量检查可以带来提高数据的可信度、 及时发现数据错误问题,更好地定位问题和提高工作效率的好处

2 为什么基于 DS 来做?

在探讨完数据数据质量检查的重要性以后,我们接下来一起看看我们为什么要基于 DolphinScheduler 来开发数据质量检查。

2.1 DolphinScheduler 是什么?

DolphinScheduler是一个分布式易扩展的可视化DAG工作流任务调度系统。致力于解决数据处理流程中错综复杂的依赖关系,使调度系统在数据处理流程中开箱即用

它具备以下的特性:

  • 高可靠性,去中心化的多 Master 和多 Worker 服务架构, 避免单 Master 压力过大,另外采用任务缓冲队列来避免任务过载

  • 简单易用,所有流程定义都是可视化,通过拖拽任务可完成定制 DAG ,也可通过 API 方式与第三方系统集成, 一键部署

  • 具有丰富的应用场景,支持多租户,支持暂停恢复操作. 紧密贴合大数据生态,提供 Spark, Hive, M/R, Python, Sub_process, Shell 等近20种任务类型

  • 高扩展性,支持自定义任务类型,调度器使用分布式调度,调度能力随集群线性增长,Master 和 Worker 支持动态上下线

2.2 数据质量检查的目标

我们想要的的数据质量检查的样子:

  • 具备丰富的内置规则,能够满足我们日常的检查需求

  • 能够无缝接入到工作流当中,当出现严重数据错误问题时能及时进行告警和阻断

  • 有较为完善的结果处理机制

  • 能够查看数据检查结果和错误数据,方便排查问题

在确定我们的目标以后,我们调研了现有的开源方案是否能够满足我们的需求,目前开源方案中使用 Java 语言开发的较为知名的有两个:

  • Griffin:

    • Apache 顶级项目,是一个优秀并且完备的数据质量检查系统,

    • 具有独立的UI、调度和内置规则,依赖于 Apache Livy 来提交 Spark 作业

    • 一个独立的系统,较难无缝地接入到工作流当中来实现当出现严重数据质量问题时的阻断。

  • Qualitis:

    • 微众开源的数据质量系统,具备较丰富的内置规则,界面简洁容易使用

    • 依赖于 Linkis 作为执行Spark作业的引擎

    • 如果想要实现无缝接入工作流需要依赖DataSphere Studio,不够轻量级

2.3 优势

在调研完现有的开源方案以后,我们决定基于 DolphinScheduler 来开发我们的数据质量检查服务。那么基于DolphinScheduler来开发数据质量检查有什么优势呢?

  • DolphinScheduler作为一个任务调度系统,具备了执行任务的基础,不需要引入新的组件来提交任务

  • 数据质量检查可以作为一种任务类型无缝接入到工作流当中

  • 无需新增其他服务来增加运维的难度

  • 可以很好地与社区共建开源

3 设计和实现

我们来看一下整体的运行流程

运行流程
  • 用户侧

    • 用户创建数据质量检查任务时会在前端页面选择一个规则,填入所需要的参数,保存任务

  • 系统侧

    • 数据质量任务开始执行,由 Master 下发任务到 Worker ,Master 是DolphinScheduler中的调度工作流和任务的组件,Worker 是DolphinSchduler中负责实际执行任务的组件。

    • Worker 接收到任务以后会进行参数的解析和构造,执行 DQCApplicaiton,DQCApplicaiton 执行完成后会将结果写入到相应的存储引擎,Worker 会发送 TaskResponse 给 Master。

    • Master 接收到 TaskResponse 后会对任务类型进行判断,如果是数据质量检查任务的话会进行数据质量结果判断,一旦发现数据异常就会进行告警或者阻断。

从上面的流程中我们可以看到下面几个核心的组成部分:

  • 规则管理:规则定义以及规则的使用

  • 数据处理:Worker 将规则定义转化为 DQCAppliccation 所需的参数以及 DQCApplicaiton 执行数据处理

  • 结果处理:结果检查以及异常后的处理

3.1 规则管理

3.1.1 规则的定义

规则是整个数据质量检查的核心部分,每一条规则对应着一个检查指标,那么一条完整的规则应该包含什么内容呢?规则主要是由两个部分组成。

  • 参数输入项:在我们的数据质量检查规则中核心的输入项包括:

    • 统计值指的是我们对要检验的数据执行一系列操作后得到的值,例如表总行数或者为某字段为空的行数。

    • 比对值指的是用来作为比较目标的值,比对值可以是固定值,也可以是由定义好的计算逻辑计算出来的值

    • 数据源输入项,定义了要检查哪些数据

    • 统计值参数比对值参数

    • 结果判断相关的参数,包括检查的方式、比较符和阈值以及失败,这部分的参数主要是用来定义怎样判断数据是否异常和异常如何处理。

  • SQL定义:需要定义SQL来计算得到统计值、比对值以及获取错误数据

在设计规则的时候做了如下考虑:

  • 后续新增规则不希望频繁修改前端页面

  • 保证用户良好的体验包括输入项的联动比如数据源、表和列的选择联动等等。

我们决定使用前端表单自动生成技术form-create,后端读取规则参数输入项转换成form-create所规定的JSON字符串传输给前端,由前端去自动生成表单输入项,实现规则灵活的增删改,同时也保证前端代码简洁和用户体验。

下图是我们定义数据质量任务时所展示的表单,选择不同的规则前端就会生成不同的表单输入项

数据质量任务前端表单输入项

我们按照准确性、完整性、及时性、唯一性、规范性、一致性和自定义监控七种分类定义了十几个规则。下面简单讲下几种分类的定义和对应的一些规则。

  • 准确性检查指的是检查数据是否存在反常或者错误的情况,例如数值反常地过大或者过小,或者超过记录的波动值,对应的规则包括数值波动检查,最大值、最小值检查,跨表准确性等。

  • 完整性检查指的是检查数据是否存在缺失的情况,这里的缺失可以是整个数据集的记录缺失,也可以是某个字段记录的缺失,对应的规则包括空值检查,表总行数检查。

  • 及时性检查指的是检查数据是否能够按时地产生。

  • 唯一性检查指的是检查哪些数据是重复数据或者数据的哪些属性是重复的,对应的规则例如主键唯一性检查。

  • 规范性检查指的是检查数据是否符合规范,是否按照规定的格式存储,对应的规则包括正则表达式检查,字段长度检查,枚举集合检查,数值范围等。

  • 一致性检查指的是检查数据是否符合逻辑,数据内单项或多项数据间存在逻辑关系,例如pv>uv 对应的规则是表逻辑检查。

  • 自定义监控指的是用户可以通过自定义SQL的方式来定义要检查的逻辑,支持的规则包括单表自定义SQL和跨表值比对。

3.1.2 比对值的管理

比对值在规则中也是相对比较重要的组成部分,我们对目标数据进行计算统计以后得到的统计值去和比对值进行一定方式的比较才能得到一个校验结果。

比对值类型和内置规则将决定了我们数据质量校验方式的丰富性,我们系统里面内置较为丰富的比较值:

  • 固定值

  • 最近7天波动

  • 最近30天波动

  • 日波动

  • 周波动

  • 月波动

  • 源表总行数

  • 目标表总行数

同时也支持用户去自定义比对值,只需要定义好以下参数:

  • execute_sql:该sql是用来计算出比对值

  • output_table_name:将execute_sql执行的结果注册到临时视图所用的表名

  • comparison_name:是比对值的名称,结合output_table_name可用于其他SQL中

3.2 数据处理

规则定义好了,用户也填好参数,这个时候就需要一个可以执行计算任务的组件来完成实际数据处理,DQCApplication 就是这么一个组件,它主要是由两个部分组成:

  • 执行引擎:我们选择了 Spark 作为任务的执行引擎。Spark 支持多种数据源类型的连接同时计算比较快。

  • 执行链路组件:我们设计了ReaderTransformerWriter三种类型的组件, Reader用于连接数据源,Transformer用于执行sql进行数据的处理,Writer用于将数据输出到指定的存储引擎中

3.2.1 执行流程

整个应用的执行流程是这样的:

  • Worker 接收到任务以后,会将规则的参数输入项和 SQL 定义转换成 DQCApplication 所需要的参数传给 DQCApplication 去执行

  • DQCApplication 解析参数选择相应的引擎,构造出引擎对应的 RuntimeEnviroment 和 Execution

  • 同时也会根据参数创建一系列的 Reader、Transformer 和 Writer , Execution 会按照一定的顺序去执行这些组件中的逻辑,来完成整个数据质量校验任务

数据处理执行流程

在上图里我们看到可以定义一个或者多个 Reader 来满足不同场景的需求,最后通过 Writer 输出的数据包括校验结果、统计数据以及错误数据

当 DQCApplicaiton 执行完计算逻辑,把统计值、比对值计算出来写到存储引擎中以后,会把 TaskResponse 发送给 Master ,由 Master 来执行最后一步的结果处理。

当 Master 接收到 TaskResponse 以后,判断任务类型为 DATA_QUALITY 后会进行结果判断,如果判断结果为异常的话,那么就会根据所选择的失败策略进行处理

3.2.2 结果处理

怎么去判断我们所检查的数据是否异常呢?

这里我们提供了一个校验的公式,请看下图

校验公式

在这图里面我们可以看这个校验的公式由是三个部分组成,检查方式,比较符和用户定义的阈值,只要将统计值和比对值填入到由这三个组成的公式就可以得到检查结果,接下来我们来看一个例子,校验表总行数能否达标。

举个例子

我们这里选择的的检查方式是比对值减去统计值,假设统计值是9800,比对值是10000,比较符我们选择 大于等于,阈值设置为100。

这个表达式想要达到的意图是当 比对值减去统计值的差 大于等于 100 时,检查结果是失败的。我们把统计值和比对值套入这个公式当中,发现10000-9800 = 200 是大于100 ,那么检查结果为失败。

一旦发现检查结果为异常,那么就要执行相应的失败策略,我们提供两个等级的失败策略:

  • 告警,告警等级是当检查结果为异常时会进行告警,但不会将任务结果设置为false,不导致整个工作流的阻断。

  • 阻断:当检查结果为异常时,首先是进行告警,同时会将任务的结构设置为false,对整个工作流进行阻断。

3.2.3 结果数据查看

当有数据异常的时候我们可以在结果列表中去看相关的结果数据:

校验结果

在这个列表中可以较为清晰地了解统计值比对值比较方式等信息,帮助我们了解数据异常的情况.

有时候光看统计值并不能很好地了解数据异常的原因,这个时候我们也可以查看错误数据,看看是哪些数据出了问题,帮我们更好地去修复数据。

我们支持两种错误数据的输出方式:

  • 写入到 ElasticSearch 中,可以通过 Kibana 或者其他工具去查看.

  • 写到 HDFS 中,这样不用新增新的组件,也可以查看错误数据,只是没那么方便。

4 不足和规划

不足:

  • 目前的数据质量校验只支持离线数据的校验

  • 只支持 Jdbc 和 Hive 两种类型的数据源

  • 没有提供页面让用户去自定义规则

规划:

  • 我们会支持实时数据的校验

  • 增加新的数据源类型,例如 Hdfs、ES 等

  • 支持用户可以自定义单表检查规则

结束语

目前,我们已经将数据质量校验功能贡献给社区,1.0 版本的代码在 dolphinscheduler 的主仓库的 data_quality_design 分支上,2.0 版本也会在近期完成pr的提交,也希望能有更多感兴趣的小伙伴一起来参与,和社区一起共建开源,谢谢大家。

下面视频是 ApacheCon Asia 上做的分享演讲: 

基于 DolphinScheduler 的数据质量检查实践的更多相关文章

  1. 基于 DataLakeAnalytics 的数据湖实践

    随着软硬件各方面条件的成熟,数据湖(Data Lake)已经越来越受到各大企业的青睐, 与传统的数仓实践不一样的是,数据湖不需要专门的“入仓”的过程,数据在哪里,我们就从哪里读取数据进行分析.这样的好 ...

  2. Appboy 基于 MongoDB 的数据密集型实践

    摘要:Appboy 正在过手机等新兴渠道尝试一种新的方法,让机构可以与顾客建立更好的关系,可以说是市场自动化产业的一个前沿探索者.在移动端探索上,该公司已经取得了一定的成功,知名产品有 iHeartM ...

  3. 数据准备<2>:数据质量检查-实战篇

    上一篇文章:<数据质量检查-理论篇>主要介绍了数据质量检查的基本思路与方法,本文作为补充,从Python实战角度,提供具体的实现方法. 承接上文,仍然从重复值检查.缺失值检查.数据倾斜问题 ...

  4. DolphinScheduler 在绿瘦的实践成果,开启了我的开源之路!

    点击上方 蓝字关注我们 ✎ 编 者 按 2021 年,Apache DolphinScheduler 社区又迎来了新的蓬勃发展,社区活跃度持续提高.目前,项目 GitHub Star 已达 6.7k, ...

  5. 【Meetup回顾】Apache DolphinScheduler在联通的实践和二次开发经验分享

    在由 openLooKeng 社区主办,Apahce DolphinScheduler社区.Apache Pulsar 社区.示说网协办的联合 Meetup 上,来自联通数字科技的王兴杰老师分享了Do ...

  6. 基于Open vSwitch的OpenFlow实践

    Open vSwitch(下面简称为 OVS)是由 Nicira Networks 主导的,运行在虚拟化平台(例如 KVM,Xen)上的虚拟交换机.在虚拟化平台上,OVS 可以为动态变化的端点提供 2 ...

  7. 数据挖掘实战<1>:数据质量检查

    数据行业有一句很经典的话--"垃圾进,垃圾出"(Garbage in, Garbage out, GIGO),意思就是,如果使用的基础数据有问题,那基于这些数据得到的任何产出都是没 ...

  8. 基于CMS的组件复用实践

    目前前端项目大多基于Vue.React.Angular等框架来实现,这一类框架都有一个明显的特点:基于模块化以及组件化思维.所以,开发者在使用上述框架时,实际上是在写一个一个的组件,并且组件与组件之间 ...

  9. 新浪微博基于MySQL的分布式数据库实践

    提起微博,相信大家都是很了解的.但是有谁知道微博的数据库架构是怎样的呢?在今天举行的2011数据库技术大会上,新浪首席DBA杨海潮为我们详细解读了新浪微博的数据库架构——基于MySQL的分布式数据库实 ...

随机推荐

  1. node-sass,sass-loader和node之间的关系

    vue-cli运行在node平台上scss语言是运行在 node-sass平台上node-sass的运行环境是node平台vue-cli工程中不识别scss语法,.scss模块,sass-loader ...

  2. drools动态增加、修改、删除规则

    目录 1.背景 2.前置知识 1.如何动态构建出一个kmodule.xml文件 2.kmodule.xml应该被谁加载 3.我们drl规则内容如何加载 4.动态构建KieContainer 3.需求 ...

  3. CSP-J游记

    祝大家 CSP-J/CSP-S 稳过第一轮 ~(- ∨ -)~ ~~ 建议扩大110%食用 ~~ 中秋快乐鸭(希望大家不会收到损友送的砖头月饼 : − ) :-) :−)) 咳咳,昨天是我们可爱初赛来 ...

  4. 优秀开源平台,前后端分离快速开发平台,一站式多端开发(PC+APP)

    JNPF平台架构介绍 JNPF快速开发平台采用前后端分离技术.采用B/S架构开发,形成一站式开发多端(APP+PC)使用. PC端版本介绍 第一个当然是当下热门的.net core了,运行环境为Vis ...

  5. Full卷积、Same卷积、Valid卷积、带深度的一维卷积

    转载和参考以下几个链接:https://www.cnblogs.com/itmorn/p/11177439.html; https://blog.csdn.net/jack__linux/articl ...

  6. 为什么要写blog????

    写 blog 文章,是种与自我的对话,也是种与外界的联系,也是获得 level up 或 skill learned 的契机. 借口:我不太会写文章,不太会表达,没有东西好写,没人会看我的文章 你想让 ...

  7. C#.NET读取文本文件的几种办法

    一次读取一个字符 //文件路径 string filePath = @"C:\Users\Administrator\Downloads\test\test.txt"; //文本读 ...

  8. 记录人生中的第一个bug

    对象的引用 使用**只是拷贝了字典的最外层,加个deepcopy可以实现深拷贝,递归的去复制对象 bug来源: 在一次将数据库里的数据转成json格式过程中,在遍历数据库对象时,对象的引用不当,导致最 ...

  9. 使用nodejs的wxmnode模块,开发一个微信自动监控提醒功能,做个天气预报。

    这个模块是一个公众号的模块,名字叫"帮你看着". 原本这个公众号是做股票监控提醒的,我也没炒股.因为接口支持写入任何内容,所以可以有其他的用处.比如做成天气预报定时提醒. 我们去n ...

  10. SAP Web Dynpro-监视应用程序

    您可以使用ABAP监视器来监视Web Dynpro应用程序. 存储有关Web Dynpro应用程序的信息. 您可以使用T代码-RZ20查看此信息. 您可以在Web Dynpro ABAP监视器中查看以 ...