飞道的博客

AAAI 2021 | 情感分析最新进展解读

921人阅读  评论(0)

图片来源:网络

作者:陆鑫,赵妍妍,秦兵

单位:哈尔滨工业大学

情感分析是自然语言处理中的一个重要研究领域,其相关应用在各种真实场景中发挥着重要作用。

近年来,基于深度学习的方法逐渐成为情感分析的主流,一方面极大地提高了诸多传统情感分析任务的性能,如情感分类、情感信息抽取等;另一方面还促进了情感分析与其他领域的交叉融合,并衍生出了一系列新任务,如对话情感任务、多模态情感分析任务等。

在AAAI 2021上出现了许多新的情感分析相关研究,按任务不同可将这些工作分为情感分析基础任务工作、对话情感工作和多模态情感分析工作。

以下对AAAI 2021 上情感分析的最新进展作以总结:


1、情感分析基础任务进展

情感分析基础任务相关工作主要涉及情感分类和情感信息抽取,其中情感分类又涉及粗粒度的句子级情感分类和细粒度的方面级情感分类。

 

句子级情感分类已经得到广泛且深入的研究,文本中蕴含的信息基本得到充分利用。为了进一步提升句子级情感分类效果,一些研究者尝试引入文本之外的信息来协助情感分类。Zhou[1]等人引入了用户信息来考虑每个人的偏好和语言习惯,并提出了一种神经群体情感分析模型解决数据稀疏性的问题。Aljebreen[2]等人研究带有URL推文的结构,提出算法解决了带有URL推文的分割问题,从而使Twitter文本的情感分析性能得到提升。

 

方面级情感分类仍然是情感分析研究的热门。一部分工作继续聚焦于方面级情感分类的任务性能、可解释性等关键问题。Wu[3]等人尝试通过向自注意力模型添加上下文信息来提升任务性能。Mao[4]等人通过改进多任务学习框架来间接提升任务性能。Yadav[5]等人提出了一种人类可解释的学习方法以增强可解释性。另一部分工作则关注方面级情感分类的跨领域问题,缓解新领域对大规模标注数据的依赖。Zhou[6]等人提出了一个自适应混合框架,将半监督学习和对抗训练集成在同一个网络中,解决了对抗训练中的任务分类器无法利用目标域数据中方面和情感相关信息的问题。

 

情感信息抽取的传统做法是各个阶段独立处理,这一方面会引起级联错误,另一方面会忽略不同阶段的内在关系,因此联合抽取逐渐成为研究的重点。Gao[7]等人提出了问题驱动的跨度标签模型QDSL,实现了方面-观点对的联合抽取。Chen[8]等人将方面情感三元组抽取(ASTE)转换为多轮机器阅读理解问题,实现了三元组的联合抽取。Mao[9]等人构造了两个阅读理解问题,通过两个共享参数的阅读理解模型一次性完成所有抽取。此外,除了有监督设定下的情感信息抽取工作,也出现了无监督设定下的工作。Shi[10]等人研究无监督方面检测问题,提出一个自监督对比学习框架,实现了无监督方面检测性能的提升。

2、对话情感任务进展

对话系统的早期研究工作主要集中于内容和功能层面,重点关注回复内容质量或任务完成质量。近年来,逐渐出现了一些关于对话系统情感能力的研究工作。这些工作主要关注对话系统的两类情感能力:情感理解能力和情感表达能力,分别对应了对话情绪识别和对话情感生成两个新的情感任务。

 

对话情绪识别与句子级情绪识别不同,其中与对话相关的要素是研究的重点。Shen[11]等人注意到对话中不同说话人的话语通常交替出现,不利于预训练语言模型的应用,为此提出了一种新的DialogXL模型。Li[12]等人受到量子认知的启发,在量子测量和情感识别之间进行类比,并在此基础上实现了对话上下文建模和多模态融合。Qin[13]等人观察到对话情绪识别和对话行为识别两个任务的相关性,提出了一个协同交互图注意力网络,以实现两个任务的交互和促进。

 

对话情感生成是对话生成的延伸,要求生成的回复不仅内容合适,而且还能表达合适的情感。大部分工作延续了对话情感生成的已有设定,尝试从不同角度继续改进。Zhong[14]等人观察到已有工作通常会导致回复内容质量下降,因此提出了一种融合常识的情感回复生成模型。Liang[15]等人则重点关注对话中已有信息的理解,提出了一种基于异质图的模型来充分理解对话历史、情感流、面部表情和说话人个性等信息,进而实现对回复质量的提升。

 

对话情感生成的一个最新的尝试,是探索在回复中同时表达多种不同强度情绪的可能。Firdaus[16]等人认为人的情绪非常复杂,因为人可以在一句话中表达多种不同强度的情绪,因此提出了多情绪可控回复生成的新任务,发布了新的MEIMD数据集,提出了相应的MEI-DG方法,并在新数据集上实验证明了新方法的有效性。

3、多模态情感分析进展

随着社交网络的快速发展,人们开始更多地以图文、视频等方式表达自己的情绪和观点,因此如何分析多模态数据中的情感,已经逐渐成为情感分析中新的研究热点。

 

多模态情感分析中被研究最多的仍然是多模态情感分类问题,工作关注的重点是不同模态间的相互关系。Yu[17]等人指出有效的多模态表示应该同时考虑不同模态的一致性和差异性,但统一的多模态标签限制了差异性,因此提出自监督的标签生成模块来获得单模态标签,并通过多模态任务和单模态任务联合训练来学习模态一致性和差异性。Gkoumas[18]等人受量子认知最新进展的启发,认为不同模态的情感预测在经典概率下可能是不兼容的,并提出了一种基于量子认知的全新多模态融合策略进行多模态情感分类。

 

多模态情感分类的有监督设定需要大规模标注数据,因此一些工作开始考虑半监督设定下的多模态情感分类问题。Zhou[19]等人利用情感表达强烈的已标注语音数据来增强大规模未标注互联网语音数据,并提出了一种半监督课程增强框架以进行情感识别,可以在互联网语音数据集和传统语音数据集上同时获得出色的性能。

 

多模态情感分析同样涉及多标签分类问题。Zhang[20]等人研究多标签场景下的多模态情绪识别问题,不仅考虑了标签之间的依赖,还进一步考虑了特征与标签和模态与标签之间的依赖,并在提出的新数据集上验证了新方法的有效性。

 

多模态数据为隐式情感分析添加了新的维度,因此多模态隐式情感分析受到了更多关注。Hasan[21]等人研究多模态幽默识别问题,提出了幽默知识增强的Transformer模型,该模型整合了上下文和外部知识来捕获多模态幽默表达的要点,并在两个公开数据集上同时取得了SOTA结果。

参考文献

[1] A Neural Group-wise Sentiment Analysis Model with Data Sparsity Awareness

[2] Segmentation of Tweets with URLs and its Applications to Sentiment Analysis

[3] Context-Guided BERT for Targeted Aspect-Based Sentiment Analysis

[4] Bridging Towers of Multi-task Learning with a Gating Mechanism for Aspect-based Sentiment Analysis and Sequential Metaphor Identification

[5] Human-Level Interpretable Learning for Aspect-Based Sentiment Analysis

[6] An Adaptive Hybrid Framework for Cross-domain Aspect-based Sentiment Analysis

[7] Question-Driven Span Labeling Model for Aspect–Opinion Pair Extraction

[8] Bidirectional Machine Reading Comprehension for Aspect Sentiment Triplet Extraction

[9] A Joint Training Dual-MRC Framework for Aspect Based Sentiment Analysis

[10] A Simple and Effective Self-Supervised Contrastive Learning Framework for Aspect Detection

[11] DialogXL: All-in-One XLNet for Multi-Party Conversation Emotion Recognition

[12] Quantum-inspired Neural Network for Conversational Emotion Recognition

[13] Co-GAT: A Co-Interactive Graph Attention Network for Joint Dialog Act Recognition and Sentiment Classification

[14] CARE: Commonsense-Aware Emotional Response Generation with Latent Concepts

[15] Infusing Multi-Source Knowledge with Heterogeneous Graph Neural Network for Emotional Conversation Generation

[16] More the Merrier: Towards Multi-Emotion and Intensity Controllable Response Generation

[17] Learning Modality-Specific Representations with Self-Supervised Multi-Task Learning for Multimodal Sentiment Analysis

[18] Quantum Cognitively Motivated Decision Fusion for Video Sentiment Analysis

[19] Inferring Emotion from Large-scale Internet Voice Data: A Semi-supervised Curriculum Augmentation based Deep Learning Approach

[20] Multi-modal Multi-label Emotion Recognition with Heterogeneous Hierarchical Message Passing

[21] Humor Knowledge Enriched Transformer for Understanding Multimodal Humor

 

推荐阅读:

AAAI 2021 | 图神经网络最新进展解读

AAAI 2021 | 机器翻译最新进展解读

【关于智源社区】

智源社区隶属于北京智源人工智能研究院,我们致力于创建一个AI领域内行人的交流平台。

在这里你有机会参与全年线上线下百场专题论坛,与顶尖学者零距离接触;也可以与同行探讨领域前沿,碰撞思想火花。如果你更想进入微信群与更多同行人发起实时讨论,或者加入「青源会」结识更多研究伙伴,或者成为智源社区编辑参与更多文字工作,欢迎填写以下表单(扫描二维码)进行申请。


转载:https://blog.csdn.net/BAAIBeijing/article/details/114697451
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场