标题:Neural Machine Reading Comprehension: Methods and Trends 作者:Shanshan Liu, Xin Zhang, Sheng Zhang, Hui Wang, Weiming Zhang 链接:https://arxiv.org/pdf/1907.01118.pdf 摘要:过去几年里,随着深度学习的出现,机器阅读理解(其要求机器基于给定的上下文回答问题)已经赢得了越来越广泛的关注.虽然基于深度学习的机器阅读理解研究正蓬勃发展,但却没有…
目录 简介 经典模型概述 Model 1: Attentive Reader and Impatient Reader Model 2: Attentive Sum Reader Model 3: Stanford Attentive Reader Model 4: AOA Reader Model 5: Match-LSTM and Answering Point Match-LSTM Pointer Net Match-LSTM and Answering Point Model 5: Bi…
目录 简介 经典模型概述 Model 1: Attentive Reader and Impatient Reader Attentive Reader Impatient Reader Model 2: Attentive Sum Reader Model 3: Stanford Attentive Reader Model 4: AOA Reader Model 5: Match-LSTM and Answering Point Match-LSTM Pointer Net Match-LS…
很久之前就得到了百度机器阅读理解关于数据集的这篇文章,今天才进行总结!.... 论文地址:https://arxiv.org/abs/1711.05073 自然语言处理是人工智能皇冠上的明珠,而机器阅读理解可以说是自然语言处理皇冠上的明珠.近些年机器阅读理解领域也越来越火热,百度所创造的DuReader这个数据集以及百度的两篇被ACL所收录的论文都充分证明了我们又向机器阅读理解领域迈进了一步. 这篇文章主要介绍了DuReader这个数据集,这个数据集是目前最大的关于中文的MRC数据集. 0摘要:…
论文选读二:Multi-Passage Machine Reading Comprehension with Cross-Passage Answer Verification 目前,阅读理解通常会给出一段背景资料,据此提出问题,而问题的答案也往往在背景资料里.不过背景资料一般是一篇文章,或者是文章的一个段落.而对于多篇文章,特别是多篇相近文章时,当前的模型效果就不那么明显了.本文即针对此问题提出的解决方案.此文提出的模型包含三个部分:答案提取模块,答案评价模块,与答案交叉验证模块. 本文提出一个…
Attention-over-Attention Neural Networks for Reading Comprehension 论文地址:https://arxiv.org/pdf/1607.04423.pdf 0 摘要 任务:完形填空是阅读理解是挖掘文档和问题关系的一个代表性问题. 模型:提出一个简单但是新颖的模型A-O-A模型,在文档级的注意力机制上增加一层注意力来确定最后答案 (什么是文档级注意力?就是每阅读问题中的一个词,该词对文档中的所有单词都会形成一个分布,从而形成文档级别的分…
​ MARCO数据集,提高计算机阅读理解能力" title="微软发布MS MARCO数据集,提高计算机阅读理解能力"> ​ 本文译自:Microsoft dataset aims to help researchers create tools to answer questions as well as people 10月16日,微软发布了一套由10万个问答组成的数据集,人工智能领域的研究人员可用它来构建能够与真人相媲美的问答系统.这套数据集被称为MS MARCO…
论文地址为:Cognitive Graph for Multi-Hop Reading Comprehension at Scale github地址:CogQA 背景 假设你手边有一个维基百科的搜索引擎,可以用来获取实体对应的文本段落,那么如何来回答下面这个复杂的问题呢? “谁是某部在2003年取景于洛杉矶Quality cafe的电影的导演?” 很自然地,我们将会从例如Quality cafe这样的“相关实体”入手,通过维基百科查询相关介绍,并在其中讲到好莱坞电影的时候迅速定位到“Old S…
原文链接:https://arxiv.org/pdf/1607.04423.pdf 本片论文主要讲了Attention Model在完形填空类的阅读理解上的应用. 转载:https://blog.csdn.net/liuchonge/article/details/73649251 在进行论文仿真的时候用到了TFRecords进行数据的读取操作,所以进行深入学习.这两天看了一下相关博客,结合该代码记录一下TFRecords的相关操作. 首先说一下为什么要使用TFRecords来进行文件的读写,在…
论文:NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE 综述 背景及问题 背景: 翻译: 翻译模型学习条件分布后,给定一个源句,通过搜索最大条件概率的句子,可以生成相应的翻译. 神经网络翻译:两个组件:第一个:合成一个源句子x:第二个:解码一个目标句子y. 问题:固定长度向量是编码器 - 解码器架构性能提升的瓶颈. 本文主要思想 本文提出:允许模型自动(软)搜索与预测目标单词相关的源句 --- 扩展的编码器…