读论文
Neural Machine Translation by Jointly Learning to Align and Translate

这个论文是在NLP中第一个使用attention机制的论文。他们把attention机制用到了神经网络机器翻译(NMT)上。NMT其实就是一个典型的sequence to sequence模型,也就是一个encoder to decoder模型,传统的NMT使用两个RNN,一个RNN对源语言进行编码,将源语言编码到一个固定维度的中间向量,然后在使用一个RNN进行解码翻译到目标语言。

直接来看这个模型

\(c_{i} = \sum_{j=1}^{T_{x}}\alpha_{i,j}h_{j}\)

\(\alpha_{i,j} = \frac{exp(e_{i,j})}{\sum_{k=1}^{T_{x}}exp(e_{i,k})}\)

\(e_{ij} = a(s_{i-1},h_{j})\)

我们使用一个前馈神经网络来对对齐网络模型\(a\)进行参数化。(在这里有一个知识点需要取了解什么是前馈神经网络)。对于这个前馈神经网络模型,是整体模型的一部分,所以参数会随着整体模型的其他部分异同进行训练更新,而不是单独把这个模型拿出来训练。

值得注意的是这个对齐模型并不是一个隐变量(什么是隐变量在这里有一个解释。这个对齐模型是一个软对齐模型,允许损失函数的梯度进行反向传播并更新(这里我并没有看懂,为啥软对齐模型可以达到这个效果)。换句话讲,这个对齐模型可以和整个翻译模型一起进行训练更新。

我们把计算隐层状态权重和的过程可以理解为一个求期望隐层状态表达的过程。
我们可以把\(\alpha_{i,j}或者是说与它相关\)当做是一个概率。这个概率的含义就是目标单词\(y_{i}\)和源单词\(x_{j}\)对齐的概率。或者说,目标单词\(y_{i}\)是从源单词\(x_{j}\)翻译过来的概率带下。然后对于目标单词\(y_{i}\)来说的,它的环境向量\(c_{i}\)是一个期望中的表达,这个表达是基于annotations(这里指的是所有的隐层状态)和相对应的\(\alpha_{ij}\)的结合计算。

\(\alpha_{i,j}\)或者\(e_{i,j}\)反应出的是\(h_{j}\)和上一层隐层状态\(s_{i-1}\)对于下一个隐层状态\(s_{i}\)和下一个单元输出\(y_{i}\)

解码器应用这个attention机制,从而决定在原始句子中的哪个部分需要花费更多的注意力。通过使用这个机制,编码器消除了一个负担,这个负担就是不得不把所有的原始句子信息经过神经网络由一个固定长度的向量表达。其实用了这个机制,长度也是固定的,只不过对于现在这个机制,这个向量会针对不同的目标单词有着不同的环境向量。

我自己有一个思考,在整个模型训练完成之后,我们得到的应该是一个权重矩阵C。为什么这么说呢,因为针对每个目标单词,我们都有一行的权重(其中这一行的每一个权重值代表的是输入句子中的每个单词的重要程度)。

对于这个权重矩阵\(C_{i}\)是权重矩阵的一行,表示对于目标单词\(y_{i}\)输入句子每个单词对应的重要程度。

对于\(\alpha_{i.j}\),它表示的是一个单词的重要程度,是\(C_{i}\)中的一个具体单词的重要程度。

现在我自己有一种感觉,就是说,这个权重矩阵,学习的重要程度,从现在我直观感受来说,它是一种两种翻译语言的语法关系。是输入句子一个位置对输出句子中的一个位置的影响程度,这个并没有体现出意思之间的对应的关系。

我们使用的是只有一层的多层感知机来计算\(a(s_{i-1},h_{j})=v_{a}^Ttanh(W_{a}s_{i-1}+U_{a}h_{j}\)

(其实这里并没有搞清楚为啥是一个多层感知机模式。多层感知机其实是一个最简单的神经网络模型,如果看做是一个多层感知机,那么输入是\(s_{i-1}\)和\(h_{j}\),怎么会有两个输入呢?)

在原始论文中,作者说\(U_{a}h_{j}\)并没有依赖于\(i\),那么我们可以提前将这个东西算出来减少计算消耗。(那么这一步提前算出来是怎么实现的呢?)

对Neural Machine Translation by Jointly Learning to Align and Translate论文的详解的更多相关文章

  1. 神经机器翻译 - NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE

    论文:NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE 综述 背景及问题 背景: 翻译: 翻译模型学习条件分布 ...

  2. [笔记] encoder-decoder NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE

    原文地址 :[1409.0473] Neural Machine Translation by Jointly Learning to Align and Translate (arxiv.org) ...

  3. 课程五(Sequence Models),第三周(Sequence models & Attention mechanism) —— 1.Programming assignments:Neural Machine Translation with Attention

    Neural Machine Translation Welcome to your first programming assignment for this week! You will buil ...

  4. Sequence Models Week 3 Neural Machine Translation

    Neural Machine Translation Welcome to your first programming assignment for this week! You will buil ...

  5. Effective Approaches to Attention-based Neural Machine Translation(Global和Local attention)

    这篇论文主要是提出了Global attention 和 Local attention 这个论文有一个译文,不过我没细看 Effective Approaches to Attention-base ...

  6. On Using Very Large Target Vocabulary for Neural Machine Translation Candidate Sampling Sampled Softmax

    [softmax分类器的加速器] https://www.tensorflow.org/api_docs/python/tf/nn/sampled_softmax_loss This is a fas ...

  7. 【转载 | 翻译】Visualizing A Neural Machine Translation Model(神经机器翻译模型NMT的可视化)

    转载并翻译Jay Alammar的一篇博文:Visualizing A Neural Machine Translation Model (Mechanics of Seq2seq Models Wi ...

  8. Learning Cocos2d-x for WP8(5)——详解Menu菜单

    原文:Learning Cocos2d-x for WP8(5)--详解Menu菜单 C#(wp7)兄弟篇Learning Cocos2d-x for XNA(5)——详解Menu菜单 菜单是游戏必不 ...

  9. Introduction to Neural Machine Translation - part 1

    The Noise Channel Model \(p(e)\): the language Model \(p(f|e)\): the translation model where, \(e\): ...

随机推荐

  1. 修复kindEditor点击加粗, 内容焦点跳动的问题

    大概1560~1569行 pos : function() { var self = this, node = self[0], x = 0, y = 0; if (node) { if (node. ...

  2. 卸载jrebel

    Setting-Plugins-搜索Jrebel-右击选择Uninstall-apply 确认重启idea即可

  3. Spring Data JPA 事务

    Spring Data JPA 是 Spring 基于 ORM 框架.JPA 规范的基础上封装的一套 JPA 应用框架,可使开发者用极简的代码即可实现对数据的访问和操作.它提供了包括增删改查等在内的常 ...

  4. Java中的各种锁

    .共享锁和排它锁的区别

  5. vim基本操作思维导图

  6. 转:Windows任务计划实现自动执行ArcGIS相关功能

    今天一不小心点开了Windows任务计划,以前咩有怎么用过,发现还挺好用,于是想到了以前用户的一些问题 1:用户环境使用ArcSDE服务连接,每次运行到一定的负载量(可能是几天),就会很慢,用户就喜欢 ...

  7. SQLServer查询语句收集

    常用的SQLServer查询语句,有空可以多练习一下,增加记忆,可以提高工作效率! 1.数据操作 Select      --从数据库表中检索数据行和列Insert      --向数据库表添加新数据 ...

  8. OpenCart-2.3 (Ubuntu 16.04)

      平台: Ubuntu 类型: 虚拟机镜像 软件包: opencart-2.3 commercial ecommerce opencart open-source 服务优惠价: 按服务商许可协议 云 ...

  9. 怎样解决putty终端乱码的方法

    原文地址:https://jingyan.baidu.com/article/3aed632e5f00ae701080913a.html?qq-pf-to=pcqq.c2c 终端输入:echo $LA ...

  10. Html5 web本地存储

    Web Storage是HTML5引入的一个非常重要的功能,可以在客户端本地存储数据,类似HTML4的cookie,但可实现功能要比cookie强大的多,cookie大小被限制在4KB,Web Sto ...