Fauce:Fast and Accurate Deep Ensembles with Uncertainty for Cardinality Estimation 论文解读(VLDB 2021)

  • 本篇博客是对Fauce:Fast and Accurate Deep Ensembles with Uncertainty for Cardinality Estimation 论文的解读。原文链接为p1950-liu.pdf (vldb.org)
  • 本文设计一种基于集成深度神经网络的基于查询的选择度估计器,文章的主要贡献有:
    • 第一次设计实现了一种可以反映估计结果的不确定性的技术估计器。
    • 介绍了一种新的查询特征化的方法,利用了数据库的连接模式捕获表列间的真是相关性。
    • 在数学上定义了估计不确定性的含义,并通过设计实现集成深度神经网络实现了对估计结果的不确定性的评估。
    • 通过不确定性管理模块可以通过增量学习进一步提高模型的准确性。

转化为回归问题

因为查询的基数均为实数,因此我们可以建立一个回归模型\(M\)。对于任意范围的查询语句,模型\(M\)可以产生匹配或接近实际基数值的回归结果。

模型\(M\)作为一个回归模型,其输入应为一个实值向量。因此我们必须将给定的查询语句转化为一个对应的实值向量,这个过程称为查询特征化。本文的查询特征化方法将在后文介绍。总之\(M\)将特征化向量作为模型的输入,实际的基数值作为标签进行训练以期望产生一个可以很好拟合query-cardinality映射关系的函数。

查询特征化

在训练\(M\)预测基数前,我们必须将查询语句转换成满足模型输入形式的实值向量。一个SQL查询语句可以表示成\(<Tables><Joins><Columns><Values>\)在本文中,它们中的每一个都用一个向量表示,这四个向量组合在一起就是一个查询语句的特征化向量,将其直接插入模型用于模型的训练和推理。下面我们介绍每一部分的嵌入方法。

Tables encoding

  • 本文不同于其他方法中的one-hot或二进制编码而是使用图嵌入的方法对数据库表进行编码。我们将数据库的连接模式看做无向图,其中顶点是表,每条边连接两个可以相连的表。我们将数据库连接模式图作为某种图嵌入方法的输入,输出为每个顶点的嵌入编码,每个输出的向量都是对应表的编码。若查询中不涉及表,我们就用0向量来代替。与二进制编码类似,我们将图嵌入的长度固定为\(log^{m+1}\)维,其中m表示数据库中表的个数。

Joins encoding

\(<Joins>\)是基于连接图得到的,连接图是是从数据库的连接模式中派生出来的。具体来说连接图就是数据库连接模式派生出的所有子图。\(<Joins>\)的嵌入过程大致分为两个步骤:

1.找出所有可能的连接图

2.对所有的连接图做嵌入处理

下面介绍Joins encoding算法:

  • 总体流程:

  • 给定一个根节点t,连接图深度d,寻找满足条件的连接图:

  • 首先根据连接模式找出所有的连接图。(Algothm 1-4;Algothm 2)其次为每个连接图寻找上下文信息,本文中认为一个根节点为\(t\)长度为\(d\) 的连接图的context为以\(t\)的邻居节点为根节点,长度为 \(\{d-1,d,d+1\}\) 的连接图。(Algothm 11-14)接着利用上下文信息对每个连接图进行编码,具体思想类似词嵌入和图嵌入,利用当前的连接图试图去预测其上下文中的连接图。将隐藏层的结果当做embedding。(Algothm1 15-17)

Columns encoding

列之间的相关性关系可以作为一种有用的信息应用于列编码中。本文利用图嵌入针对数据库不同列之间的真实相关性对每一列进行编码。该编码方法分为三步:

1.构造单表内关系依赖图

2.构造全局关系依赖图

3.根据全局关系依赖图进行图嵌入

我们通过计算随机相关系数(RDC)和一个阈值\(t\)来判断不同列之间是否存在依赖关系。

Values encoding

  • 在一个有共有n列的数据库中,所有的连接查询语句的过滤子句的条件都可以表示为

    \(({lb}_1^1\leq {Col}_1^1\leq{ub}_1^1)\cap{...}\cap({lb}_m^{cm}\leq {Col}_m^{cm}\leq{ub}_m^{cm})\) 的形式,其中 \({Col}_i^{j}\) 表示数据库中第\(i\)个表的第\(j\)列属性,\(lb_i^j\) 和 \(ub_i^j\) 分别是查询中的 \({Col}_i^{j}\) 值的上限和下限。我们将表 \(Ti\)的第j列属性的值域表示为\([min_i^j,max_i^j]\) ,如果查询中没有对某一列进行约束,我们就用它的值域范围表示。
  • 举个例子:一个数据库有两个列属性 \(Col_i^j\) 和 \(Col_m^n\) 且它们的值域均为 \((0,100)\),有一个查询的过滤条件为 \((20\leq Col_i^j\leq 50)\),我们就可以将这个查询语句的过滤条件表示为 \((20\leq Col_i^j\leq 50)\cap (0\leq Col_i^j\leq 100)\).
  • 假设一个数据库存在 \(CM\) 列属性,我们就可以用 \(CM\) 对 \((lb,ub)\) 来表示一个查询语句的过滤子句,即我们可以用 \(2CM\) 维的向量对过滤子句进行编码。

综上,我们完成了对 \(<Tables><Joins><Columns><Values>\) 的编码,将它们连接在一起形成向量 \(q\) 就完成了查询特征化工作得到能作为模型输入的特征化向量。设Joins编码长度为n,Columns编码长度为C,一个query语句中涉及m个表,那么我们得到的一个查询特征化向量的长度为 \(mlog^m+n+c+2c\) 维。

训练数据处理

基数变换

模型 \(M\) 的训练数据为大量的\(<query,real_card>\)我们用S来表示。S作为训练集会很大,这会导致不同的查询基数差距可能会非常大,而且标签的分布可能会比较倾斜,这都会对训练过程造成很大的影响,为了避免这些影响到训练的结果,我们对标签做了一些标准化变换:

  • log Transformation:利用取对操作可以缓解数据分布倾斜的情况。
  • min-max scaling : 对标签进行放缩操作,使之分布在 \((0,1)\)区间内,可以避免标签差距过大影响训练过程。\(card'= \frac{card-min\_card}{max\_card-min\_card}\)

训练数据生成

  • 由于查询的基数分布很容易发生偏差,因此从所有查询的空间进行简单采样可能会产生不均匀的训练数据集和次优的基数估计值。为了生成统一的训练数据集,我们基于以下两种规则生成训练数据:

    • 通用性:查询应该来自从数据库连接模式中派生出的多种连接图。
    • 多样性:查询的训练数据在过滤属性和基数上应该是不同的。
  • 基于以上两种规则,我们可以通过以下方式生成训练数据:我们将查询语句均匀的划分到每个不同的连接图。(通用性)为了生成对连接图的查询,我们先从连接图内部随机采样出一个元组并获得该元组的非空列数记为 \(N\),接着我们从\((1,N)\)中随机的选择一个过滤谓词个数 \(np\) 接着我们随机抽取np个列并根据其支持的运算符生成过滤条件。(多样性)

模型的选择

  • 我们使用深层神经网络的集合(DNN Ensembles)来估计基数。选择DNN,因为查询的分布非常复杂,DNN是强大的模型,在许多任务中都取得了令人印象深刻的准确性。此外,之前的工作已经显示了使用系综技术提高基数估计的优势。
  • Ensembles。Deep ensembles是一种学习范式,其中为同一任务训练有限数量的DNN集合。一般来说,深度集合的构建分为两步:

    (1)在没有任何交互的情况下并行训练多个DNN;

    (2)计算每个DNN的估计结果的加权平均值,作为深度集合的最终输出

量化不确定性

  • 在数据库中使用基数估计是基于一个默认的假设,即估计的结果是安全的。然而这种假设并不是有效的。若是估计器产出了一个错误的基数估计值传递给优化器,就会生成一个错误的执行计划。为了解决这个问题,一种更好的方案是基数估计模型同时生成基数估计结果和相应的不确定程度来度量这个基数估计是否可信。基于不确定性,DBMS可以评估是否可以相信这个估计结果并将其用于查询计划生成中。
  • 在该文中,我们运用的是集成的深度神经网络进行训练就是为了能够量化估计的不确定性。注意这里的集成指的并不是神经网络的深度,而是指一系列独立的神经网络。我们训练了很多个相同的网络,虽然它们的训练集都一样但是因为深度神经网络的独特结构,其内部权重肯定有所不同。在推理阶段,我们根据这一系列神经网络的输出的方差来衡量不确定性。思路类似于随机森林。当方差很小时,证明大家都认为基数是这么多,我们可以认为此时估计结果可以信任,当方差过大时,证明大家分歧很大,此时基数估计的结果不是很可信。
  • 在本文中,我们有两种模型的输出,一是在进行查询特征化时,输入一个query语句要得到对应的特征化向量;二是在进行基数估计时,输入一个查询特征化向量输出一个基数估计的值。因此这里将不确定性分为两种:数据不确定性和模型不确定性。分别定量为查询特征化输出的方差和基数估计输出的方差。
  • 在处理不确定性时,我们给两种不确定性设定两个阈值,认为超过这个阈值就不可信。这样我们可以得到四种情况:
    • 数据可信,模型可信
    • 数据不可信,模型可信
    • 数据可信,模型不可信
    • 数据不可信,模型不可信

      又因为我们的任务只关注基数估计的结果,所以当模型可信时我们就可认为结果可信。因此实际只有三种情况:
    • 模型可信:接受估计结果。
    • 数据可信,模型不可信:我们将query存入缓冲区,在DBMS中返回真实的cardinaliy并进行增量训练。
    • 数据不可信,模型不可信:除了要讲query存入缓冲区后续进行增量训练外,在训练数据生成阶段扩大训练数据规模。

Work Flow







觉得有帮助的话给笔者点个赞吧!欢迎评论区互相交流!O(∩_∩)O

Fauce:Fast and Accurate Deep Ensembles with Uncertainty for Cardinality Estimation 论文解读(VLDB 2021)的更多相关文章

  1. A Unified Deep Model of Learning from both Data and Queries for Cardinality Estimation 论文解读(SIGMOD 2021)

    A Unified Deep Model of Learning from both Data and Queries for Cardinality Estimation 论文解读(SIGMOD 2 ...

  2. Fast and Accurate Traffic Matrix Measurement Using Adaptive Cardinality Counting

    paper-CaiPan.pdf http://conferences.sigcomm.org/sigcomm/2005/paper-CaiPan.pdf

  3. Deep Upsupervised Cardinality Estimation 解读(2019 VLDB)

    Deep Upsupervised Cardinality Estimation 本篇博客是对Deep Upsupervised Cardinality Estimation的解读,原文连接为:htt ...

  4. 论文笔记:Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks

    Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks ICML 2017 Paper:https://arxiv.org/ ...

  5. DART: a fast and accurate RNA-seq mapper with a partitioning strategy DART:使用分区策略的快速准确的RNA-seq映射器

    DART: a fast and accurate RNA-seq mapper with a partitioning strategyDART:使用分区策略的快速准确的RNA-seq映射器 Abs ...

  6. Fast and accurate bacterial species identification in urine specimens using LC-MS/MS mass spectrometry and machine learning (解读人:闫克强)

    文献名:Fast and accurate bacterial species identification in urine specimens using LC-MS/MS mass spectr ...

  7. 论文解读第三代GCN《 Deep Embedding for CUnsupervisedlustering Analysis》

    Paper Information Titlel:<Semi-Supervised Classification with Graph Convolutional Networks>Aut ...

  8. 论文解读(SDNE)《Structural Deep Network Embedding》

    论文题目:<Structural Deep Network Embedding>发表时间:  KDD 2016 论文作者:  Aditya Grover;Aditya Grover; Ju ...

  9. 论文解读(IDEC)《Improved Deep Embedded Clustering with Local Structure Preservation》

    Paper Information Title:<Improved Deep Embedded Clustering with Local Structure Preservation>A ...

随机推荐

  1. 📚 队列-DS笔记

    数组队列 数组队列是一种特殊的线性表,特殊之处在于它只允许在表的前端(front)进行删除操作,而在表的后端(rear)进行插入操作,和栈一样,队列是一种操作受限制的线性表.进行插入操作的端称为队尾, ...

  2. SpringMVC实现文件上传功能

    文件上传 文件上传要求form表单的请求方式必须为post,并且添加属性enctype="multipart/form-data" SpringMVC中将上传的文件封装到Multi ...

  3. You Don't Know JS Yet Book 1 Notes

    Get Started - 前言 But let me be clear: I don't think it's possible to ever fully know JS. That's not ...

  4. JavaScript的一些实用操作(逐步添加)

    1.js代码简洁高效计时 console.time('a'); //记录时间开始 ... console.timeEnd('a'); //记录时间结束 a: 12857.81103515625ms / ...

  5. jQuery--子元素过滤

    1.子元素过滤器介绍 :nth-child 获得指定索引的孩子,从1开始 :first-child 获得第一个孩子 :last-child 获得最后一个孩子 :only-child 获得独生子 2.代 ...

  6. 访问修饰符 public,private,protected,以及不写(默认) 时的区别?

    修饰符 当前类 同 包 子 类 其他包 public √ √ √ √ protecte d √ √ √ × default √ √ × × private √ × × × 类的成员不写访问修饰时默认为 ...

  7. 如何实现数组与List的相互转换?在 Queue 中 poll()和 remove()有什么区别?哪些集合类是线程安全的?

    如何实现数组与List的相互转换? List转数组:toArray(arraylist.size()方法 数组转List:Arrays的asList(a)方法 /** * 〈一句话功能简述〉; * 〈 ...

  8. 什么是 spring?

    Spring 是个 java 企业级应用的开源开发框架.Spring 主要用来开发 Java 应用, 但是有些扩展是针对构建 J2EE 平台的 web 应用.Spring 框架目标是简化 Java 企 ...

  9. 机器学习之近邻算法模型(KNN)

    1..导引 如何进行电影分类 众所周知,电影可以按照题材分类,然而题材本身是如何定义的?由谁来判定某部电影属于哪 个题材?也就是说同一题材的电影具有哪些公共特征?这些都是在进行电影分类时必须要考虑的问 ...

  10. Collection单列集合的继承关系(集合的层次结构)