ICML 2019 分析

Word Embeddings

Understanding the Origins of Bias in Word Embeddings

Popular word embedding algorithms exhibit stereotypical biases, such as gender bias.

The widespread use of these algorithms in machine learning systems can amplify stereotypes in important contexts.

Although some methods have been developed to mitigate this problem, how word embedding biases arise during training is poorly understood.

In this work we develop a technique to address this question.

Given a word embedding, our method reveals how perturbing the training corpus would affect the resulting embedding bias.

By tracing the origins of word embedding bias back to the original training documents, one can identify subsets of documents whose removal would most reduce bias.

We demonstrate our methodology on Wikipedia and New York Times corpora, and find it to be very accurate.

《理解单词嵌入中偏见的起源》

常用的嵌入词算法表现出典型的偏见,如性别偏见。

Analogies Explained: Towards Understanding Word Embeddings

Word embeddings generated by neural network methods such as word2vec (W2V) are well known to exhibit seemingly linear behaviour, e.g. the embeddings of analogy woman is to queen as man is to king'' approximately describe a parallelogram.

This property is particularly intriguing since the embeddings are not trained to achieve it.

Several explanations have been proposed, but each introduces assumptions that do not hold in practice.

We derive a probabilistically grounded definition of paraphrasing that we re-interpret as word transformation, a mathematical description of \(w_x\) is to \(w_y\)''.

From these concepts we prove existence of linear relationship between W2V-type embeddings that underlie the analogical phenomenon, identifying explicit error terms.

《类比解释:对嵌入词的理解》

神经网络方法(如word2vec(w2v))生成的嵌入词通常表现出看似线性的行为,例如,将女性嵌入到皇后中,就像男人对国王“近似描述一个平行四边形”。

这种特性特别有趣,因为嵌入没有经过训练来实现它。

已经提出了几种解释,但每种解释都引入了在实践中不成立的假设。

我们推导了一个基于概率的释义定义,我们将其重新解释为单词转换,一个 \(w_x\) 到 \(w_y\) 的数学描述。

从这些概念中,我们证明了W2V类型嵌入之间存在线性关系,这些嵌入构成了类比现象的基础,识别了显式错误项。

Humor in Word Embeddings: Cockamamie Gobbledegook for Nincompoops

While humor is often thought to be beyond the reach of Natural Language Processing, we show that several aspects of single-word humor correlate with simple linear directions in Word Embeddings.

In particular:

(a) the word vectors capture multiple aspects discussed in humor theories from various disciplines;

(b) each individual's sense of humor can be represented by a vector, which can predict differences in people's senses of humor on new, unrated, words; and

(c) upon clustering humor ratings of multiple demographic groups, different humor preferences emerge across the different groups.

Humor ratings are taken from the work of Engelthaler and Hills (2017) as well as from an original crowdsourcing study of 120,000 words.

Our dataset further includes annotations for the theoretically-motivated humor features we identify.

《文字嵌入中的幽默:繁琐的戈布尔德古克》

虽然幽默通常被认为是超出了自然语言处理的范围,但我们发现,单词幽默的几个方面与嵌入单词的简单线性方向相关。

特别是:

(a)词汇载体从各个学科捕获幽默理论中讨论的多个方面;

(b)每个人的幽默感可由一个矢量表示,该矢量可预测人们在新的、未分级的词语上的幽默感差异;及

(c)通过对多个人口统计学群体的幽默评分进行聚类,不同群体之间会出现不同的幽默偏好。

幽默评分取自Engelthaler和Hills(2017)的作品,以及120000字的原始众包研究。

我们的数据集还包括对我们所识别的理论性幽默特征的注释。

ICML 2019 分析的更多相关文章

  1. ACL 2019 分析

    ACL 2019 分析 word embedding 22篇! Towards Unsupervised Text Classification Leveraging Experts and Word ...

  2. AAAI 2019 分析

    AAAI 2019 分析 Google Scholar 订阅 CoKE : Word Sense Induction Using Contextualized Knowledge Embeddings ...

  3. ICML 2019论文录取Top100:谷歌霸榜

    [导读]人工智能顶级会议ICML 2019发布了今年论文录取结果.提交的3424篇论文中,录取了774篇,录取率为22.6%,较去年有所降低.从录取论文数量来看,谷歌成为今年最大赢家,紧随其后的是MI ...

  4. 《Domain Agnostic Learning with Disentangled Representations》ICML 2019

    这篇文章是ICML 2019上一篇做域适应的文章,无监督域适应研究的问题是如何把源域上训练的模型结合无lable的目标域数据使得该模型在目标域上有良好的表现.之前的研究都有个假设,就是数据来自哪个域是 ...

  5. 计算机电子书 2019 BiliDrive 备份

    下载方式 pip install BiliDriveEx bdex download <link> 链接 文档 链接 传智播客轻松搞定系列 C.C++.Linux.设计模式.7z (33. ...

  6. 2019年度【计算机视觉&机器学习&人工智能】国际重要会议汇总

    简介 每年全世界都会举办很多计算机视觉(Computer Vision,CV). 机器学习(Machine Learning,ML).人工智能(Artificial Intelligence ,AI) ...

  7. 因果推理的春天-实用HTE(Heterogeneous Treatment Effects)论文github收藏

    一直以来机器学习希望解决的一个问题就是'what if',也就是决策指导: 如果我给用户发优惠券用户会留下来么? 如果患者服了这个药血压会降低么? 如果APP增加这个功能会增加用户的使用时长么? 如果 ...

  8. zz2019年主动学习有哪些进展?答案在这三篇论文里

    2019年主动学习有哪些进展?答案在这三篇论文里 目前推广应用的机器学习方法或模型主要解决分类问题,即给定一组数据(文本.图像.视频等),判断数据类别或将同类数据归类等,训练过程依赖于已标注类别的训练 ...

  9. zz【清华NLP】图神经网络GNN论文分门别类,16大应用200+篇论文最新推荐

    [清华NLP]图神经网络GNN论文分门别类,16大应用200+篇论文最新推荐 图神经网络研究成为当前深度学习领域的热点.最近,清华大学NLP课题组Jie Zhou, Ganqu Cui, Zhengy ...

随机推荐

  1. RS chap1:好的推荐系统

    一.什么是推荐系统 1.个性化推荐系统:从庞大的电影库中找几部符合你兴趣的电影供你选择. 2.推荐系统是帮助用户快速发现有用信息的工具.和搜索引擎不同的是,推荐系统不需要用户提供明确的需求,而是通过分 ...

  2. vue - helloVue

    开始学习vue了 1.数据绑定:{{data}} 2.el属性(挂载对象): el:标签任意(例如:#app,.app,app) 3.data:{} :存放数据. <!DOCTYPE html& ...

  3. 使用layer弹窗和layui表单做新增功能

    注释:代码参考http://blog.51cto.com/825272560/1891158,在其修改之上而来,在此感谢! 1.需求:使用layer在弹窗内完成新增,成功后提示并刷新页面(父页面,li ...

  4. js方法的封装

    封装是为了更好的调用,当我们很多页面都需要同一种方法的时候,为了避免每个页面都需要进行重写方法,增加工作量,这个时候就需要我们对部分公共的方法进行封装,这样便于更好的进行调用 我在写接口的时候用到了 ...

  5. vue学习之vue-resource的引入

    npm安装的命令 npm install vue-resource --save 安装完成后在main.js中导入 import  VueResource  from 'vue-resource' V ...

  6. 白话算法:时间复杂度和大O表示法

    转自:https://www.jianshu.com/p/59d09b9cee58 每一个优秀的开发者脑中都有时间概念.他们想给用户更多的时间让用户做他们想做的事情.他们通过最小化时间复杂度来实现这一 ...

  7. Ubuntu16.04下caffe CPU版的详细安装步骤

    一.caffe简介 Caffe,是一个兼具表达性.速度和思维模块化的深度学习框架. 由伯克利人工智能研究小组和伯克利视觉和学习中心开发. 虽然其内核是用C++编写的,但Caffe有Python和Mat ...

  8. C++打开属性对话框并保持其处于打开状态

    #include <Windows.h> #include <shlobj_core.h> #pragma comment(lib,"Shell32.lib" ...

  9. 【洛谷P1919】A*B Problem升级版

    题目大意:rt 题解:将长度为 N 的大整数看作是一个 N-1 次的多项式,利用 FFT 计算多项式的卷积即可. 代码如下 #include <bits/stdc++.h> using n ...

  10. chrome 开发者工具 - local overrides

    使用chrome 作为本地网络服务 chrome 65+ 新功能, 使用我们自己的本地资源覆盖网页所使用的资源,可以使用本地css文件覆盖网页的css文件,修改样式. 类似的,使用DevTools的工 ...