小言_互联网的博客

EMNLP 2020 | 通过Contrast Set评估模型的局部决策边界

594人阅读  评论(0)

©PaperWeekly 原创 · 作者|张一帆

学校|华南理工大学本科生

研究方向|CV,Causality

论文标题:

Evaluating Models' Local Decision Boundaries via Contrast Sets

论文链接:

https://arxiv.org/abs/2004.02709

数据集:

https://allennlp.org/contrast-sets

Main Contribution:训练集与测试集 i.i.d 的假设使得模型很难泛化,文章提出了在原始测试集构建 contrast test set 的方法,可以真实的评估模型的语言能力。


Motivation

这里用了一个 toy example 和一个真实示例来表示作者想要提出并解决的问题。

Toy Example

考虑二维的情况,下图中的两分类问题需要一个非常复杂的 decision boundary。

但是在很多情况下,由于采样的 biased,我们很可能得到如下的数据集:

网络通过一个很简单的 decision boundary 就可以将它们分类,而由于训练测试数据集独立同分布,虽然这个 decision boundary 非常差,但它在测试集表现得非常好。理想情况下,如果我们完整采样整个数据集,所有问题都迎刃而解,但这显然是很难做到的。为了正确的测试模型的能力,作者提出了对测试集做 perturbation 的方法:对测试集的每一个实例,我们生成一系列与之类似的测试样本(Contrast Set:下图中的灰色圆圈)。

Complex NLP Task

我们很难用图把 NLP task 中存在的问题进行描述,但是有很多工作支撑了这一观点。比较有意思的示例为在 SNLI 数据集中,表明单词"睡觉","电视"和"猫"几乎从来没有同时出现数据中,但是它们经常出现在 contradiction 的例子中。所以 model 很容易的学到“同时出现'睡觉'和'猫'的句子都是 contradiction sentence,并且这一分类标准工作得很好”。 

在初始数据收集过程中完全消除这些差距将是非常理想化的,在一个非常高维的空间中,语言有太多的可变性。相反,该文使用 Contrast Set 来填补测试数据中的空白,从而给出比原始数据提供的更全面的评估。

Contrast sets

假设我们现在为测试样本 构建 Contrast Set,有两个要点 (i) 构建样本距离与  小于某个阈值。(ii) Label 与 不一致。下图是在 NLVR2 数据集上的一些实例,在这里,句子和图像都通过一些很简单的方式进行修改(例如,通过改变句子中的一个词或找到一个相似但有区别的词),从而使输出标签发生变化。

我们需要注意,contrast set 和 adversarial examples 是不一样的,对抗样本的目的是对句子/图像做 perturbation,但是保持原标签不变。 

不过文章中如何计算样本距离,阈值的确定,label 是否发生变化,都是由 expert 给出的。


How to Create Contrast Sets

作者用了三个数据集来展示 Contrast Sets 的构造过程。

DROP

DROP 是一个阅读理解数据集,旨在涵盖对段落中的数字进行组合推理,包括过滤、排序和计数,以及进行数值运算。数据主要来自 (i) Wikipedia (ii) 美国足球联赛的描述。(iii) 人口普查结果说明。(iv) 战争摘要。作者发现数据集中存在明显的 bias,比如一旦问题是"How many...",结果很多情况都是 2。关于事件顺序的问题通常遵循段落的线性顺序,而且大部分问题不需要理解。 

作者从三个方面改进这个数据集:

  • 关于足球联赛的问题往往需要推理和比较(比如询问两场比赛得分的差值),但是其他类型的数据很少需要推理比较,因此作者为他们提供额外的需要推理比较的问题;

  • 将问题的部分语义颠倒,类似于 shortest 变为 longest, later 变为 earlier, How many countries 变为 which countries 等等;

  • 改变事件发生的顺序,使得与事件顺序相关的问题推理难度增加。

NLVR2

给模型一对图像与一个句子,判断这句话正确与否。这个数据集的特点在于 compositional reasoning,我们需要模型理解图像中的物体的属性,物体与物体的关系,物体与场景的关系。 

我们通过修改句子或用网络搜索中获得自由许可的图片替换其中一张图片来构建 NLVR2 的 Contrast Set。 

比如将句子"The leftimage contains twice the number of dogs as theright image"改为“The left image containsthree timesthe number of dogs as the right image”。或者对一个图像对,将原本 4 条狗的图像换成其他数目。也可以对一些量词比如"at least one"改为"exactly one",或者实体"dogs"改为"cats",或者属性"yellow"改为“red”。

UD  Parsing 

这是一个 dependency parsing 的数据集。作者想要通过这个数据集证明 Contrast set 不仅在 high-level 的 NLP 任务中有效,也在语义分析的任务中有效。具体方法可以查看原文。

可以看到,再加上 Contrast Set 之后,SOTA models 的性能都有了显著的下降。

更多阅读

 

#投 稿 通 道#

 让你的论文被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得技术干货。我们的目的只有一个,让知识真正流动起来。

???? 来稿标准:

• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向) 

• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接 

• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志

???? 投稿邮箱:

• 投稿邮箱:hr@paperweekly.site 

• 所有文章配图,请单独在附件中发送 

• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通

????

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

关于PaperWeekly

PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。


转载:https://blog.csdn.net/c9Yv2cf9I06K2A9E/article/details/113855564
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场