理解GloVe模型

概述

模型目标:进行词的向量化表示,使得向量之间尽可能多地蕴含语义和语法的信息。
输入:语料库
输出:词向量
方法概述:首先基于语料库构建词的共现矩阵,然后基于共现矩阵和GloVe模型学习词向量。
开始
统计共现矩阵
训练词向量
结束
统计共现矩阵

设共现矩阵为XX,其元素为Xi,jXi,j。
Xi,jXi,j的意义为:在整个语料库中,单词ii和单词jj共同出现在一个窗口中的次数。
举个栗子:
设有语料库:

i love you but you love him i am sad
这个小小的语料库只有1个句子,涉及到7个单词:i、love、you、but、him、am、sad。
如果我们采用一个窗口宽度为5(左右长度都为2)的统计窗口,那么就有以下窗口内容:

窗口标号 中心词 窗口内容
0 i i love you
1 love i love you but
2 you i love you but you
3 but love you but you love
4 you you but you love him
5 love but you love him i
6 him you love him i am
7 i love him i am sad
8 am him i am sad
9 sad i am sad
窗口0、1长度小于5是因为中心词左侧内容少于2个,同理窗口8、9长度也小于5。
以窗口5为例说明如何构造共现矩阵:
中心词为love,语境词为but、you、him、i;则执行:
Xlove,but+=1
Xlove,but+=1

Xlove,you+=1
Xlove,you+=1

Xlove,him+=1
Xlove,him+=1

Xlove,i+=1
Xlove,i+=1

使用窗口将整个语料库遍历一遍,即可得到共现矩阵XX。
使用GloVe模型训练词向量

模型公式

先看模型,代价函数长这个样子:
J=∑i,jNf(Xi,j)(vTivj+bi+bj−log(Xi,j))2
J=∑i,jNf(Xi,j)(viTvj+bi+bj−log(Xi,j))2

vivi,vjvj是单词ii和单词jj的词向量,bibi,bjbj是两个标量(作者定义的偏差项),ff是权重函数(具体函数公式及功能下一节介绍),NN是词汇表的大小(共现矩阵维度为N∗NN∗N)。
可以看到,GloVe模型没有使用神经网络的方法。
模型怎么来的

那么作者为什么这么构造模型呢?首先定义几个符号:
Xi=∑j=1NXi,j
Xi=∑j=1NXi,j

其实就是矩阵单词ii那一行的和;
Pi,k=Xi,kXi
Pi,k=Xi,kXi

条件概率,表示单词kk出现在单词ii语境中的概率;
ratioi,j,k=Pi,kPj,k
ratioi,j,k=Pi,kPj,k

两个条件概率的比率。
作者的灵感是这样的:
作者发现,ratioi,j,kratioi,j,k这个指标是有规律的,规律统计在下表:
ratioi,j,kratioi,j,k的值 单词j,k单词j,k相关 单词j,k单词j,k不相关
单词i,k单词i,k相关 趋近1 很大
单词i,k单词i,k不相关 很小 趋近1
很简单的规律,但是有用。
思想:假设我们已经得到了词向量,如果我们用词向量vivi、vjvj、vkvk通过某种函数计算ratioi,j,kratioi,j,k,能够同样得到这样的规律的话,就意味着我们词向量与共现矩阵具有很好的一致性,也就说明我们的词向量中蕴含了共现矩阵中所蕴含的信息。
设用词向量vivi、vjvj、vkvk计算ratioi,j,kratioi,j,k的函数为g(vi,vj,vk)g(vi,vj,vk)(我们先不去管具体的函数形式),那么应该有:
Pi,kPj,k=ratioi,j,k=g(vi,vj,vk)
Pi,kPj,k=ratioi,j,k=g(vi,vj,vk)

即:
Pi,kPj,k=g(vi,vj,vk)
Pi,kPj,k=g(vi,vj,vk)

即二者应该尽可能地接近;
很容易想到用二者的差方来作为代价函数:
J=∑i,j,kN(Pi,kPj,k−g(vi,vj,vk))2
J=∑i,j,kN(Pi,kPj,k−g(vi,vj,vk))2

但是仔细一看,模型中包含3个单词,这就意味着要在N∗N∗NN∗N∗N的复杂度上进行计算,太复杂了,最好能再简单点。
现在我们来仔细思考g(vi,vj,vk)g(vi,vj,vk),或许它能帮上忙;
作者的脑洞是这样的:
1. 要考虑单词ii和单词jj之间的关系,那g(vi,vj,vk)g(vi,vj,vk)中大概要有这么一项吧:vi−vjvi−vj;嗯,合理,在线性空间中考察两个向量的相似性,不失线性地考察,那么vi−vjvi−vj大概是个合理的选择;
2. ratioi,j,kratioi,j,k是个标量,那么g(vi,vj,vk)g(vi,vj,vk)最后应该是个标量啊,虽然其输入都是向量,那內积应该是合理的选择,于是应该有这么一项吧:(vi−vj)Tvk(vi−vj)Tvk。
3. 然后作者又往(vi−vj)Tvk(vi−vj)Tvk的外面套了一层指数运算exp()exp(),得到最终的g(vi,vj,vk)=exp((vi−vj)Tvk)g(vi,vj,vk)=exp((vi−vj)Tvk);
最关键的第3步,为什么套了一层exp()exp()?
套上之后,我们的目标是让以下公式尽可能地成立:
Pi,kPj,k=g(vi,vj,vk)
Pi,kPj,k=g(vi,vj,vk)

即:
Pi,kPj,k=exp((vi−vj)Tvk)
Pi,kPj,k=exp((vi−vj)Tvk)

即:
Pi,kPj,k=exp(vTivk−vTjvk)
Pi,kPj,k=exp(viTvk−vjTvk)

即:
Pi,kPj,k=exp(vTivk)exp(vTjvk)
Pi,kPj,k=exp(viTvk)exp(vjTvk)

然后就发现找到简化方法了:只需要让上式分子对应相等,分母对应相等,即:
Pi,k=exp(vTivk)并且Pj,k=exp(vTjvk)
Pi,k=exp(viTvk)并且Pj,k=exp(vjTvk)

然而分子分母形式相同,就可以把两者统一考虑了,即:
Pi,j=exp(vTivj)
Pi,j=exp(viTvj)

本来我们追求:
Pi,kPj,k=g(vi,vj,vk)
Pi,kPj,k=g(vi,vj,vk)

现在只需要追求:
Pi,j=exp(vTivj)
Pi,j=exp(viTvj)

两边取个对数:
log(Pi,j)=vTivj
log(Pi,j)=viTvj

那么代价函数就可以简化为:
J=∑i,jN(log(Pi,j)−vTivj)2
J=∑i,jN(log(Pi,j)−viTvj)2

现在只需要在N∗NN∗N的复杂度上进行计算,而不是N∗N∗NN∗N∗N,现在关于为什么第3步中,外面套一层exp()exp()就清楚了,正是因为套了一层exp()exp(),才使得差形式变成商形式,进而等式两边分子分母对应相等,进而简化模型。
然而,出了点问题。
仔细看这两个式子:
log(Pi,j)=vTivj和log(Pj,i)=vTjvi
log(Pi,j)=viTvj和log(Pj,i)=vjTvi

log(Pi,j)log(Pi,j)不等于log(Pj,i)log(Pj,i)但是vTivjviTvj等于vTjvivjTvi;即等式左侧不具有对称性,但是右侧具有对称性。
数学上出了问题。
补救一下好了。
现将代价函数中的条件概率展开:
log(Pi,j)=vTivj
log(Pi,j)=viTvj

即为:
log(Xi,j)−log(Xi)=vTivj
log(Xi,j)−log(Xi)=viTvj

将其变为:
log(Xi,j)=vTivj+bi+bj
log(Xi,j)=viTvj+bi+bj

即添了一个偏差项bjbj,并将log(Xi)log(Xi)吸收到偏差项bibi中。
于是代价函数就变成了:
J=∑i,jN(vTivj+bi+bj−log(Xi,j))2
J=∑i,jN(viTvj+bi+bj−log(Xi,j))2

然后基于出现频率越高的词对儿权重应该越大的原则,在代价函数中添加权重项,于是代价函数进一步完善:
J=∑i,jNf(Xi,j)(vTivj+bi+bj−log(Xi,j))2
J=∑i,jNf(Xi,j)(viTvj+bi+bj−log(Xi,j))2

具体权重函数应该是怎么样的呢?
首先应该是非减的,其次当词频过高时,权重不应过分增大,作者通过实验确定权重函数为:
f(x)={(x/xmax)0.75,1,if x<xmaxif x>=xmax
f(x)={(x/xmax)0.75,if x<xmax1,if x>=xmax

到此,整个模型就介绍完了。
说明

如果错误,敬请指正。
---------------------
作者:饺子醋
来源:CSDN
原文:https://blog.csdn.net/coderTC/article/details/73864097
版权声明:本文为博主原创文章,转载请附上博文链接!

理解GloVe模型(Global vectors for word representation)的更多相关文章

  1. 【NLP CS224N笔记】Lecture 3 GloVe: Global Vectors for Word Representation

    I. 复习word2vec的核心思路 1. Skip-gram 模型示意图: 2.word vectors的随机梯度 假设语料库中有这样一行句子: I love deep learning and N ...

  2. ELMO模型(Deep contextualized word representation)

    1 概述 word embedding 是现在自然语言处理中最常用的 word representation 的方法,常用的word embedding 是word2vec的方法,然而word2vec ...

  3. deeplearning.ai 序列模型 Week 2 NLP & Word Embeddings

    1. Word representation One-hot representation的缺点:把每个单词独立对待,导致对相关词的泛化能力不强.比如训练出“I want a glass of ora ...

  4. 四步理解GloVe!(附代码实现)

    1. 说说GloVe 正如GloVe论文的标题而言,GloVe的全称叫Global Vectors for Word Representation,它是一个基于全局词频统计(count-based & ...

  5. word2vec 和 glove 模型的区别

    2019-09-09 15:36:13 问题描述:word2vec 和 glove 这两个生成 word embedding 的算法有什么区别. 问题求解: GloVe (global vectors ...

  6. Global Vectors forWord Representation

    参考论文: GloVe: Global Vectors forWord Representation 参考博客:https://blog.csdn.net/coderTC/article/detail ...

  7. NLP.TM | GloVe模型及其Python实现

    在进行自然语言处理中,需要对文章的中的语义进行分析,于是迫切需要一些模型去描述词汇的含义,很多人可能都知道word2vector算法,诚然,word2vector是一个非常优秀的算法,并且被广泛运用, ...

  8. NLP学习(1)---Glove模型---词向量模型

    一.简介: 1.概念:glove是一种无监督的Word representation方法. Count-based模型,如GloVe,本质上是对共现矩阵进行降维.首先,构建一个词汇的共现矩阵,每一行是 ...

  9. 翻译 Improved Word Representation Learning with Sememes

    翻译 Improved Word Representation Learning with Sememes 题目 Improved Word Representation Learning with ...

随机推荐

  1. JS鼠标响应事件经过、移动、点击示例介绍

    原文: http://www.jb51.net/article/41124.htm onMouseDown 按下鼠标时触发 onMouseOver 鼠标经过时触发 onMouseUp 按下鼠标松开鼠标 ...

  2. 算法学习--Day8

    今天重拾算法复习. 今天学习了两个类型的算法——并查集与最小生成树(MST) 简单记录一下并查集的大致内容. 一.并查集的内容大致作用为查找当前图中的点有几个集合. 该算法起到查询分组的情况.通过给定 ...

  3. HDU5113【DFS+剪枝】

    题意: n*m的矩阵 k种颜色 每种颜色有c[i]个 上下左右相邻的格子不能一样的颜色 问你有没有一种染色方法,有的话输出方案. 思路: 暴搜啊,n,m都才5,做完以后大哥的剪枝是奇偶剪枝,其实画完图 ...

  4. hyperledger fabric 1.0.5 分布式部署 (四)

    chaincode 的开发 作者在hyperledger fabric 1.0.5 分布式部署 (三)中向读者介绍了如何开发fabric 的chaincode,那么实际上chaincode 还有其他的 ...

  5. 区间质数查询 luoguP1865

    原题 https://www.luogu.org/problemnew/show/P1865 本来get到了一个很好的判断素数的方法 O(玄学常数)https://www.luogu.org/blog ...

  6. Cordova 系列之创建一个iOS项目

    1.打开终端 2.输入命令 $ cd Desktop (PS:Desktop表示放在桌面,你可以选择放任意位置) 3.$  cordova create HelloWorld com.example. ...

  7. 【转】String hashCode 方法为什么选择数字31作为乘子

    某天,我在写代码的时候,无意中点开了 String hashCode 方法.然后大致看了一下 hashCode 的实现,发现并不是很复杂.但是我从源码中发现了一个奇怪的数字,也就是本文的主角31.这个 ...

  8. Centos 7.5源码编译安装zabbix4.0报fatal error: mysql.h: No such file or directory

    系统环境:CentOS 7.5是最小化安装的 编译信息 编译选项: root@Server01 zabbix-]# ./configure --prefix=/usr/share/applicatio ...

  9. 操作系统内核(linux)

    操作系统的内核(Kernel) 是一组程序,这组程序的重点在于管理计算机的所有活动以及驱动系统中的所有硬件. 有了内核后,开发者不必自己去考虑机器语言.所有硬件的相关参数.程序的可移植性.专一性了.但 ...

  10. Codeforces 371BB. Fox Dividing Cheese

    Two little greedy bears have found two pieces of cheese in the forest of weight a and b grams, corre ...