OneStopEnglish corpus: A new corpus for automatic readability assessment and text simplification-paper
这篇论文的related work非常详尽地介绍了各种readability的语料
abstract
这个paper描述了onestopengilish这个三个level的文本语料的收集和整理,阐述了再自动可读性评估和自动文本简化方面的有效性。语料包括189个texts,每个text有3个level的版本,一共由于567个text。
1 introduction
Automatic Readability Assessment (ARA)非常需要平行语料,以前都是依赖simple wiki来对模型进行测试和评估,但是缺少另外的语料来对该简化方法的繁华能力进行评估。
贡献1:
我们创建了在text和sentence级别对齐的语料,共有3个level,分别是beginner、intermediate和advanced,目标群体是ESL即英语第二学习者。这是第一个免费的可读性评估研究的语料,比之前的句子对齐的语料更大更干净。
我们的https://zenodo.org/record/1219041
贡献2:
论证了这个预料对于可读性自动分类和文本简化的有用性。
2 Related Work
之前语料的问题:
1)不公开
2)针对L1学习者
3)众包价格高,所以数据少,虽然评估效果好但是不适合建立新模型
4)文本自身不具备可比较性,平行语料不足
另外一个唯一免费的但是有版权限制的平行难度语料是NewsEla3 corpus,手动简化,但是是针对L1学习者
https://newsela.com/
3 corpus
语料来自于onestopenglish网站,这个网站的受众是100多个国家的70万使用者,上每周会发放卫报文章,然后回请老师写三个等级的改编版,分别是针对elementary、intermediate和advanced三类。
数据包括文章、文章前后的问题和其他材料数据清洗的流程:
数据清洗的流程:
用文本转换器自动转换-》作者之一手动看所有文件确保没有遗漏的
3个level的平均单词数,的确和难度成正比,但是方差也成正比,这说明文本长度并不是决定性因素。
初步分析:
特征:Flesch-Kincaid Grade Level (FKGL)、Type-token ratio (TTR), and occurrences of different phrases, as given by Stanford Parser例如NP\VP\PP
结果:这五个值都随着难度的增大而增大
Sentence Alignment:
两两句子作为一个pair,例如计算level1中的某个句子和level2中所有及句子的cos相似度,相似度太高了可能只是一个标点符号的差别,太低了也不行,最终取得是[0.7-0.95]的阈值,获得了1674个的level2-3,2166个level1-3,3154个1-2这些pair,平均来看2-3的pair的相似度和别的更高。
4 实验
论证了该语料在两项应用上的有用性:readability assessment和text simplification
4.1 readability assessment和text
对分类问题建模,特征包括:
1. Word n-grams: Uni, Bi, Trigram features
2. POS n-grams: Bi and Trigrams of POS tags from Stanford tagger (Toutanova et al., 2003)
3. Character n-grams: 2–5 character n-grams,considering word boundaries
4. Syntactic production rules: phrase structure production rules from Stanford parser (Klein and Manning, 2003)
5. Dependency relations: Dependency relation triplets of the form (relation, head, word) from Stanford dependency parser (Chen and Manning, 2014)
baseline:所有类别数都相等,即33%
LightSide text mining workbench用来提取特征,SMO分类器(线性核)得到分类结果。其中字符ngrams表现最好,依赖于更深层次语言表示的数据驱动的特征考起来要比这些简单的特征的效果差。特别是依存关系表现的比随机的baseline都差。单词ngram效果不是很好,因为很多词都是再各个级别都会出现的,character表现的推测是由于捕捉到了单词子部分简化了的文本信息例如某个前缀后缀的使用。
除了上面这些类型特征,还用一般都会在ARA中使用的特征:
1、过去所有ARA models中使用的特征和公式
2、lexical变化、tye token ratio,pos tag ratio based features
3 基于psycholinguistic数据库的特征
4 基于constituent parse trees的特征
5 discourse语篇特征包括:
Coh-Metrix测试文档中句子的重复率
从上下文连接词tagger中获取的不同的连接词的使用
CoreNLP中的coreference chains共指
Code for feature extraction is available at:
https://bitbucket.org/nishkalavallabhi/complexity-features
然后,所有的特征加起来得到的准确率只比用character ngrams多了0.01的准确率。
机之前用Weebit数据集的获得了90%的准确率,但是由于我们的数据集是支队同一个topic只是形式不同而不是类容不同,所以更难去建模。
有了这个预料后,未来可以用来做句子级别和段落级别的不同可读性评估和rank问题。
4.2 text simplification
Automatic Text Simplification (ATS),使用adv-ele这部分语料
我们的语料不适合去训练一个新模型(小),但是可以用来评估泛化能力,或者和别的语料共同组成新数据来训练新模型。我们的语料不适合去训练一个新模型(小),但是可以用来评估泛化能力,或者和别的语料共同组成新数据来训练新模型。
OneStopEnglish Corpus Release:
https://zenodo.org/record/1219041#.XBYESZwzbD5
Discourse Connectives Tagger工具:
http://www.cis.upenn.edu/~nlp/software/discourse.html
OneStopEnglish corpus: A new corpus for automatic readability assessment and text simplification-paper的更多相关文章
- Readability Assessment for Text Simplification -paper
https://pdfs.semanticscholar.org/e43a/3c3c032cf3c70875c4193f8f8818531857b2.pdf 1.introduction在Brazil ...
- Structural Features for Predicting the Linguistic Quality of Text: Applications to Machine Translation, Automatic Summarization and Human-Authored Text -paper
abstract句子结构是文本语言质量的关键,我们记录了以下实验结果:句法短语统计和其他结构特征对文本方面的预测能力.手工评估的句子fluency流利度用于机器翻译评估和文本摘要质量的评估是黄金准则. ...
- [转]NLP Tasks
Natural Language Processing Tasks and Selected References I've been working on several natural langu ...
- 机器学习入门-文本数据-构造词频词袋模型 1.re.sub(进行字符串的替换) 2.nltk.corpus.stopwords.words(获得停用词表) 3.nltk.WordPunctTokenizer(对字符串进行分词操作) 4.np.vectorize(对函数进行向量化) 5. CountVectorizer(构建词频的词袋模型)
函数说明: 1. re.sub(r'[^a-zA-Z0-9\s]', repl='', sting=string) 用于进行字符串的替换,这里我们用来去除标点符号 参数说明:r'[^a-zA-Z0- ...
- READ–IT: Assessing Readability of Italian Texts with a View to Text Simplification-paper
https://aclanthology.info/pdf/W/W11/W11-2308.pdf 2 background2000年以前 ----传统可读性准则局限于表面的文本特征,例如the Fle ...
- 自然语言15.1_Part of Speech Tagging 词性标注
QQ:231469242 欢迎喜欢nltk朋友交流 https://en.wikipedia.org/wiki/Part-of-speech_tagging In corpus linguistics ...
- 词性标注 parts of speech tagging
In corpus linguistics, part-of-speech tagging (POS tagging or POST), also called grammatical tagging ...
- ### Paper about Event Detection
Paper about Event Detection. #@author: gr #@date: 2014-03-15 #@email: forgerui@gmail.com 看一些相关的论文. 1 ...
- (转)awesome-text-summarization
awesome-text-summarization 2018-07-19 10:45:13 A curated list of resources dedicated to text summari ...
随机推荐
- win7下Oracle库impdp导入dmp
第一步:创建备份文件存储目录 create or replace directory back_file as 'D:\app\yangxf\back_or_memery_file'; create ...
- 关于乱码(MessyCode)问题
乱码本质:读取二进制时采用的编码和最初将字符转成二进制时的编码不一致 编码时(得二进制数组时)不抛出异常,数据就不会被破坏 Java关于乱码(MessyCode)问题 Java使用的是Unicode编 ...
- codeforce 955c --Sad powers 思路+二分查找
这一题的题意是 定义一个数,该数特点是为a的p次方 (a>0,p>1) 再给你n个询问,每个询问给出一个区间,求区间内该数的数目. 由于给出的询问数极大(10e5) 所以,容易想到应该 ...
- Linux之vi/vim编辑器
1.概述 所有的Unix like系统都会内建 vi 文本编辑器,其他的文本编辑器则不一定会存在,但是目前我们使用比较多的是 vim 编辑器. vim具有程序编辑的能力,可以主动地以字体颜色辨别语法的 ...
- .NET Core 如何上传文件及处理大文件上传
当你使用IFormFile接口来上传文件的时候,一定要注意,IFormFile会将一个Http请求中的所有文件都读取到服务器内存后,才会触发ASP.NET Core MVC的Controller中的A ...
- Java版 人脸识别SDK dem
虹软人脸识别SDK之Java版,支持SDK 1.1+,以及2.0版本,滴滴,抓紧上车! 前言由于业务需求,最近跟人脸识别杠上了,本以为虹软提供的SDK是那种面向开发语言的,结果是一堆dll······ ...
- MySQL中的decimal
MySQL DECIMAL数据类型用于在数据库中存储精确的数值.我们经常将DECIMAL数据类型用于保留准确精确度的列,例如会计系统中的货币数据. 要定义数据类型为DECIMAL的列,请使用以下语法: ...
- linux存储管理之mount挂载
Mount 挂载详解 ====================================================================================本节内容: ...
- springboot应用无故停止运行killed解决方法
最近使用springboot开发了一个ip代理的程序,今天放到阿里云服务器上运行,多次出现应用运行突然停止的问题. 使用free -h 查看内存使用完全正常.重新运行监视CPU使用也正常.没有出现堆内 ...
- stylus笔记(三)
1.@import 导入 Stylus支持字面@import CSS, 也支持其他Stylus样式的动态导入. 任何.css扩展的文件名将作为字面量.例如: @import "reset.c ...