使用点击二分图传导计算query-document的相关性
之前的博客中已经介绍了Ranking Relevance的一些基本情况(Click Behavior,和Text Match):http://www.cnblogs.com/bentuwuying/p/6714064.html,这里就不再赘述了。针对之前在计算Ranking Relevance的过程中遇到的问题:Click Behavior对长尾的或者根本没出现过的query-doc pair无效,Term Match无法解决近义词和语义隔离问题,Topic Match解释性差的问题。本篇博客介绍的paper中的这种计算Ranking Relevance的方法能够有效地解决上述的问题:结合了Click Behavior和Text Match两方面的信息,并利用点击日志构成二分图,根据二分图进行传导,学习到query和doc各自的向量表达式,最终收敛之后进行query-doc relevance的计算。
该方法的特点有:
1. 利用二分图的传导,从相似的query(或者doc)中提取term来丰富当前query(或者doc)的term表达。
2. 在二分图的传导过程中,利用query-doc pair的点击信息,来平滑query和doc的vector中各个维度的term weight大小。
解决之前Click Behavior中的Sparsity和Noisy的问题。
该paper的三方面贡献在于:
1. 可以使query和doc在同一空间上生成词向量考虑
2. 对于未曾有点击行为的query和doc也可以进行该空间词向量的估计
3. 最终计算的效率较高,可以用于商业的搜索引擎
1. 已有点击行为的query-doc relevance计算
用Doc表示文档集合,用Query表示query集合,则点击二分图的节点集合为Doc U Query。对于一个query-doc pair:qi和dj,如果它们之间有至少一次点击,则二分图中这两个节点之间会有一条边相连接,且权重为该query-doc pair的点击次数。点击二分图的示例如下图所示。现在假设语料的长度为V,则Query构成的矩阵为|Query|×V,矩阵的每一行代表了一个query的vector表示;以及Doc构成的矩阵为|Doc|×V,矩阵的每一行代表了一个doc的vector表示。那么现在的任务就是如何计算这两个矩阵。

要知道,这个方法的目的是要将所有的query和doc表示成一个公共向量空间上的向量(可以是query的term space,也可以是doc的term space)。它利用二分图的某一边的节点上的conetnt information 初始化该边的节点的vector,然后利用点击信息进行传导,这样就可以在传导过程中,将具有代表性的term的weight提高,将不具有代表性的term的weight降下去。
首先,我们需要初始化二分图中某一边的节点的向量表示,例如,我们选择query这一边的节点,将所有的query进行分词,构成词典,便得到query space上各个query的向量表示了。每一个维度代表了一个term,每个维度(term)可以看成是一个feature,这便是term级别的表示,过去的研究表明,term级别的表示方法解释性较强,便于验证和debug(虽然同时会遇到无法解决近义词和语义隔离问题,不过我们这里介绍的方法可以对这种问题进行解决)。通过让query和doc都使用公共向量空间的表示方式(这里是query space),我们可以消除query与doc的语义隔离问题。
下一步便是query & doc的向量在二分图上的传导了。基本思路是利用query vector结合起来表示在query下有点击的doc的vector,反之亦然。如果某些query之间拥有较多的共同点击的doc,则这些query是相似的query,它们的vector representation应当较为相似,反之doc之间亦然。
当然,我们这样计算的前提是,click information可以很好地表示query-doc的relevance,并且relevance的大小与click number的多少是正相关的。
具体的向量传导步骤如下:
1. 我们假设从query side开始。初始化的时候,每个query都用它自身的term表示成一个vector(利用one-hot方式),每个term的weight与term出现的次数成正比,最后将每个query的vector进行归一化处理。初始化矩阵(包含所有query的vector)可以用
表示。
2. 在第n次传导中,我们先利用二分图中有边连接的各个query的vector加权求和,来计算doc的vector矩阵
,这个权重即为query-doc的click number,如下式:

3. 下一步就是反过来,利用二分图中有边连接的各个doc的vector加权求和,来更新query的vector矩阵
:

4. 按2,3中的步骤不断进行迭代,直至收敛,其产出的query和doc的向量就都在一个空间内,可以计算query-doc relevance,同时还可以计算相似度/相关性。
这里以上的图为例再说一下计算过程:
1. 初始化query的向量:

2. 根据上一次query的迭代信息以及与doc的点击信息来更新doc的向量:

3. 然后就是不断的迭代就行了,这样已经很清晰了
了解过一些信息检索或者链接分析的朋友可能会马上想到,这好像Hits这个算法。的确是的,在计算过程中极为相似,不过Hits权重主要是计算Hubs与Authority两端的权重,而这里的迭代完得到的是各个向量,有异曲同工之妙。
另外在实际的query量级一般都是百万以上,这样query的语料的量就很大了,而搜索引擎中需要计算的性能要求极高,所以一般进行稀疏存储,并且只取一些重要的term(Top K的term)来对query进行表示。
2. 没有点击行为的query-doc relevance计算
实际应用中,用户搜索之后带来了点击行为的只是一小部分。如果仅按照上述点击传播的方式来计算的话,无query点击的文档将会将会无法得到正常的向量,同时一些新的query(从未有用户搜索过的query)也就无法得到正常的向量数据,所以需要一种对于这种缺失行为的query和doc进行向量表示估计。
由于在线计算相关性时,对于已有行为的query−doc和缺失行为的query-doc是一视同仁的,因此为了在线计算时不应该因为训练数据产生偏差,所以需要与已有行为的query-doc向量在同一个空间内,同时考虑已有行为的query和doc的向量均已计算得到,我们还借助这些数据来预估缺失行为的向量。
2-1. 提取unit向量
既然没有点击行为的query与doc之间没有任何边连接,那我们可以利用有点击行为的query-doc的信息,通过有点击行为的query进行的边的构造,首先将query分解为各种unit(一般是N-grams,如unigrams,bigrams,trigrams等,但该query进行分解之后不能有overlap),这样就有ui∈unit(qi),如果存在query含有ui,则将ui对应的query之间形成一条虚拟的边,同时称含有ui的所有query的集合为Oui。

这种边的构建方式如上图,q1,q2和q3均都包含了yahoo这个词,则在他们之间形成这条虚线的边。
接下来我们可以理解query−doc之间的向量传播方法,我们当然也可以完成unit−doc的传播。
ui会与qi有边相连,而qi与di又有边相连,因此我们可以间接认为ui与di也是有边相连的。
现假设qk包含了ui,同时qk与dj存在点击行为,Pi,k,j表示为这个二折线的权重,则该权重其实为qk与dj的点击次数,那么我们就会有

其演示就是上图的右侧部分,yahoo与d1之间的权重为8,与d2之间的权重为5,既然到了这一步,我们就可以按照上一小节的传播方式来计算,这样就可以巧妙的得到Ui的向量:

上面得到的是关于query上unit的向量,同样的我们也可以从doc这一侧出发,来计算doc相关的unit。
2-2. 计算unit向量权重
有了unit的向量之后,接下来要解决的问题就是如何得到query或者doc的向量了,其实最简单的方法就是将他们各自的unit进行平均即可,不过paper中使用线性回归的方法来计算得到每个unit的全局权重值,在进行权重训练时使用最小均方差:

Ti是使用有点击行为的query计算得到的向量,也就是我们所认为的gold-set。这样求出来的W就是各个uniti不同的权重。
2-3. 预估向量
根据上面两个步骤得到的unit的向量和权重之后,得到整体的query或者doc的向量就很方便了,由于unit本身就是query或者doc分解出来的,这里基础数据也都已经计算完成了,所以直接进行加权求和即可:


3. 总结
该方法成功地借助了点击日志,对query-doc relevance进行估计,并且在实现上:
1. 已有点击数据的query和doc的向量直接离线就按完成。
2. 缺失点击的query和doc可以利用离线计算的unit向量,在线直接进行加权求和即可。
3. 对于在线存储均使用稀疏方式并只存top-k,因此存储并不是问题。
4. 在线计算相关性可以直接按相似度计算,复杂度为klogk,所以并不是很高。
4. 参考
1. Learning Query and Document Relevance from a Web-scale Click Graph
2. http://kubicode.me/2016/11/03/Search%20Engine/Learning-Query-And-Document-Relevanec-from-a-Web-scale-Click-Graph/
使用点击二分图传导计算query-document的相关性的更多相关文章
- 使用点击二分图计算query-document的相关性
		
之前的博客中已经介绍了Ranking Relevance的一些基本情况(Click Behavior,和Text Match):http://www.cnblogs.com/bentuwuying/p ...
 - 基于熵的方法计算query与docs相似度
		
一.简单总结 其实相似度计算方法也是老生常谈,比如常用的有: 1.常规方法 a.编辑距离 b.Jaccard c.余弦距离 d.曼哈顿距离 e.欧氏距离 f.皮尔逊相关系数 2.语义方法 a.LSA ...
 - “完美”解决微信小程序购物车抛物动画,在连续点击时出现计算错误问题,定时器停不下来。
		
最近做,微信点餐小程序,遇到添加商品时出现抛物动画,参考借鉴了这位大神的方法 https://www.cnblogs.com/greengage/p/7815842.html 但出现了一个问题,连续点 ...
 - Xapian索引-文档检索过程分析
		
本文是Xapian检索过程的分析,本文内容中源码比较多.检索过程,总的来说就是拉取倒排链,取得合法doc,然后做打分排序的过程. 1 理论分析 1.1 检索语法 面对不同的检索业务,我们会有多种检索 ...
 - Learning Query and Document Similarities from Click-through Bipartite Graph with Metadata
		
读了一篇paper,MSRA的Wei Wu的一篇<Learning Query and Document Similarities from Click-through Bipartite Gr ...
 - 计算广告(5)----query意图识别
		
目录: 一.简介: 1.用户意图识别概念 2.用户意图识别难点 3.用户意图识别分类 4.意图识别方法: (1)基于规则 (2)基于穷举 (3)基于分类模型 二.意图识别具体做法: 1.数据集 2.数 ...
 - NLP传统基础(1)---BM25算法---计算文档和query相关性
		
一.简介:TF-IDF 的改进算法 https://blog.csdn.net/weixin_41090915/article/details/79053584 bm25 是一种用来评价搜索词和文档之 ...
 - 转-JS中document对象详解
		
对象属性 document.title //设置文档标题等价于HTML的<title>标签 document.bgColor //设置页面背景色 document.fgColor //设置 ...
 - JS中document对象详解
		
转自:http://www.cnblogs.com/andycai/archive/2010/06/29/1767351.html 对象属性 document.title //设置文档标题等价于HTM ...
 
随机推荐
- sys.path.insert(0,"/path") 的用法
			
可以选择用sys.path.insert(0,‘/path’),这样新添加的目录会优先于其他目录被import检查
 - spring boot 部署
			
指定运行的内存 java -Xms10m -Xmx200m -jar xxx.jar spring boot 打包成war包: 让 SpringbootApplication 类继承 SpringBo ...
 - 解决pycharm安装包过程出现的问题:module 'pip' has no attribute 'main'
			
解决pycharm安装包过程出现的问题:module 'pip' has no attribute 'main' 问题 更新pip之后,Pycharm安装package出现如下报错:module 'p ...
 - zabbix监控日志文件
			
环境: 操作系统:centos 6.8 ,zabbix软件版本:zabbix 3.0.1 前提条件:zabbix客户端已经配置了主动模式,如何配置主动模式,请参考此文 监控日志keys 首先要了解k ...
 - cURL 是一个功能强大的PHP库。
			
使用PHP的cURL库可以简单和有效地去抓网页.你只需要运行一个脚本,然后分析一下你所抓取的网页,然后就可以以程序的方式得到你想要的数据了.无论是你想从从一个链接上取部分数据,或是取一个XML文件并把 ...
 - Oracle之RMAN备份恢复1-基础篇
			
1,rman的作用与体系架构 1.1 什么是rman rman(recovery manager)是oracle8i以后dba的一重要工具一般位于$oracle_home/bin目录下,主要用来备份, ...
 - 线性DP总结(LIS,LCS,LCIS,最长子段和)
			
做了一段时间的线性dp的题目是时候做一个总结 线性动态规划无非就是在一个数组上搞嘛, 首先看一个最简单的问题: 一,最长字段和 下面为状态转移方程 for(int i=2;i<=n;i++) { ...
 - POJ-2336 Ferry Loading II(简单DP)
			
Ferry Loading II Time Limit: 1000MS Memory Limit: 65536K Total Submissions: 3763 Accepted: 1919 Desc ...
 - 2016江苏省CPC省赛 I - Itinerary Planning
			
Description Mike moved to a new city. There are bus stations in the city, each has a unique name. Ea ...
 - SCSI共享磁盘
			
服务器端: [root@scsi ~]# fdisk -l Disk /dev/sda: 32.2 GB, 32212254720 bytes 255 heads, 63 sectors/track, ...