认识数据集 Component-Whole(e2,e1) The system as described above has its greatest application in an arrayed <e1> configuration </e1> of antenna <e2> elements </e2>. Other The <e1> child </e1> was carefully wrapped and bound i
一种使用CNN来提取特征的模型,通过CNN的filter的大小来获得不同的n-gram的信息,模型的结构如下所示: 输入 输入使用word2vec的50维词向量,加上 position embedding. position embedding 是一句话的每个单词距离两个entity的距离,比如: In the morning, the <e1>President</e1> traveled to <e2>Detroit</e2> 句子的长度为n,那么对于第
Distant Supervision for relation extraction without labeled data 远程监督:使用未标注语料做关系抽取 1. 背景: 关系抽取(某个人是否属于某个组织等) 关系抽取中使用的3种方法: a) 监督学习 优点:准确率很高 缺点:1.手工标注金标语料代价昂贵,时间金钱上需要很大的开销,并且数量受限,得不到大量的训练数据; 2.领域受限,标注都是在一个特定的语料中,训练的系统受限于那个领域 b) 无监督学习 优点:可以使用大规模的数据
自然语言处理中的自注意力机制(Self-attention Mechanism) 近年来,注意力(Attention)机制被广泛应用到基于深度学习的自然语言处理(NLP)各个任务中,之前我对早期注意力机制进行过一些学习总结(可见http://www.cnblogs.com/robert-dlut/p/5952032.html).随着注意力机制的深入研究,各式各样的attention被研究者们提出.在2017年6月google机器翻译团队在arXiv上放出的<Attention is all yo