EMNLP2023-对话情绪识别相关论文阅读笔记
type
status
date
slug
summary
tags
category
icon
password
摘要:我们提出了一种新的改造方法,将emotion aspects引入预训练的语言模型(PLM)中,如BERT和RoBERTa。我们的方法使用对比学习更新预训练的网络权重,以便表现出相似情绪的文本片段在表征空间附近编码,并将具有不同情感内容的片段推开。在这样做的同时,它还确保了PLM中已经存在的语言知识不会无意中受到干扰。通过我们的方法(即 BERTEmo 和 RoBERTaEmo)改造的语言模型,通过不同的聚类和检索指标进行评估,产生情感感知的文本表示。对于情感分析和讽刺检测的下游任务,它们的表现优于预先训练的对应任务(F1 分数提高约 1%)和其他现有方法。此外,在少样本学习设置中,与预训练模型相比,改造后的模型的性能有更显着的提升。
摘要:在对话中理解情绪是人类交流的一个基本方面,推动了对话中情感识别 (ERC) 的 NLP 研究。虽然相当多的研究集中在单语对话中辨别个体说话者的情绪,但理解code-mixed对话(文中指的是混合不同语言的专有单词传达语义)中的情绪动态受到的关注相对较少。这促使我们在这项研究中对 ERC 进行code-mixed对话。认识到情商包括对世俗知识的理解,我们提出了一种创新的方法,将常识性信息与对话语境相结合,以促进对情感的更深入理解。为了实现这一点,我们设计了一个高效的管道,根据代码混合输入从现有的知识图谱中提取相关的常识。随后,我们开发了一种先进的融合技术,将获取的常识信息与从专用对话理解模块获得的对话表示无缝结合。我们的综合实验展示了通过系统地将常识纳入 ERC 而获得的实质性性能改进。定量评估和定性分析都进一步证实了我们假设的有效性,重申了常识整合在增强ERC中的关键作用。
A Training-Free Debiasing Framework with Counterfactual Reasoning for Conversational Emotion Detection
摘要:无意的数据集偏差通常存在于现有的对话中的情感识别 (ERC) 数据集中,包括标签偏差,其中模型由于训练数据不平衡而偏向多数类,以及说话人和中性词偏差,其中模型由于特定中性词或说话人与类之间的过度相关性(比如数据集中出现Richard Burke人名的大多数时候是正向或中性的,模型就会倾向于对有这个人名的句子做出非负向的预测)而做出不公平的预测。然而,以往的ERC研究通常侧重于捕捉上下文敏感和说话人敏感的依赖关系,而忽略了数据的意外数据集偏差,这阻碍了ERC的泛化和公平性。为了解决这个问题,我们提出了一个免训练去偏倚框架(TFD),该框架在预测期间运行,无需额外训练。为了保证与各种ERC模型的兼容性,它不平衡数据或修改模型结构。相反,TFD 通过生成反事实话语和上下文从模型中提取偏差,并使用简单但经验上稳健的元素减法运算来减轻偏差。在三个公开数据集上的广泛实验表明,TFD有效地提高了不同ERC模型的泛化能力和公平性1。
Efficient Cross-Task Prompt Tuning for Few-Shot Conversational Emotion Recognition
摘要:对话中的情绪识别 (ERC) 因其在开发情绪感知移情机器中的重要性而被广泛研究。预训练语言模型 (PLM) 的兴起进一步推动了 ERC 性能的极限。然而,最近关于使用 PLM 的 ERC 工作在很大程度上是数据驱动的,需要对整个 PLM 进行微调。为了提高样本和计算效率,我们提出了一种称为跨任务提示调整(CTPT)的无导数优化方法,用于小样本对话情感识别。与从单个任务中学习独立知识的现有方法不同,CTPT通过利用来自其他源任务的外部知识来利用可共享的跨任务知识,以提高少数样本设置下的学习性能。此外,CTPT只需要在低本征维数下对向量进行优化,没有梯度,与现有方法相比,具有很高的参数效率(大概优化1000个参数)。在五个不同的上下文对话数据集上的实验表明,我们的CTPT方法在少样本场景和零样本转移上都具有优越的结果。
An Empirical Study on Multiple Knowledge from ChatGPT for Emotion Recognition in Conversations
摘要:多种知识(例如,共同参照、主题、情绪原因等)已被证明对情绪检测有效。然而,由于缺乏注释数据以及获得此类知识所涉及的高成本,在对话中的情感识别 (ERC) 中探索这些知识目前是一张白纸。幸运的是,大型语言模型(LLM)的出现有望填补这一空白。因此,我们提出了一种多知识融合模型(MKFM),以有效地整合LLMs产生的ERC知识,并实证研究其对模型的影响。在三个公开数据集上的实验结果证明了多元知识对ERC的有效性。此外,我们还对这些知识的贡献和互补性进行了详细分析。
PS. 通过 prompting 的方式去本来就让大模型推理出来对话上下文中蕴含的各种信息,包括但不限于:对话状态(dialogue state tracking),用户状态(用户情绪,心理,性格特征等),和各种语义信息(natural language understanding)等等
由两幅配图可看出,作者通过LLM生成了各种情感辅助知识(启发:整个论文的故事用 LLM 生成了很多对话分析中的辅助元素,结果提升不大)
- 知识集1名为ALK,表示了第i个话语是否为讽刺表达,是否为隐喻表达,是否为话题,用在对比学习损失函数里;
- 知识集2名为辅助上下文知识(ACK,看起来就是不同情况下的上下文的索引):共同引用(CR)、情绪原因(EC2)、情境(CT),用在图attention结构里,让LLM判断应该如何辅助图结构不同的边的设计;
- 知识集3名为辅助话语知识(AUK):与话语相关的常识知识(CS)、情感常识(ACS)、情绪原因(EC),应该是把LLM生成的这些文本提取转成了向量,在使用时直接拼接在经过RoBERT的句子特征上;
Enhancing Emotion Recognition in Conversation via Multi-view Feature Alignment and Memorization(施工)
摘要:对话中的情感识别(ERC)在自然语言处理领域受到越来越多的关注。以前的工作通常是先通过微调预训练语言模型(PLMs)提取语义视图特征,然后在得到的语义视图特征的基础上,利用各种图神经网络对上下文视图特征进行建模。然而,简单地通过图形神经网络难以完全模拟话语之间的交互,语义视图和上下文视图的特征没有很好地对齐。此外,先前的参数学习范式在给定较少实例的情况下难以学习尾类的模式。为此,我们将预训练的会话模型视为先验知识库,并通过探测程序从中引出话语之间的相关性。我们采用监督对比学习来对齐语义视图和上下文视图特征,这两种特征视图以互补的方式一起工作,从不同的角度为ERC做出贡献。同时,针对尾类样本的识别问题,提出了一种新的半参数记忆推理范式。
结果很好,提取特征前对 RoBERTa-Large 做了微调,从 COMENT 提取的常识知识等向量
特殊的一点在于,在检测句子之间相关性的时候,使用了 PCM(Dialogbert: Discourse-aware response generation via learning to recover and rank utterances)做相关性矩阵,具体做法如下:首先将 N 个话语输入到 PCM 中,提取出话语 j 的表示,然后,把话语 i MASK掉,再MASK后不完整的的 N 个话语再次输入PCM,再提取话语 j 的表示,计算两次话语 j 向量之间的距离,用这个距离做(i,j)相关性(启发:做相关性有各种方法,包括 SBERT 等);
Reducing Spurious Correlations in Aspect-based Sentiment Analysis with Explanation from Large Language Models
摘要:最近,基于方面的情感分析(ABSA)模型已经产生了可喜的结果。然而,在对方面的情感特征进行建模时,他们很容易学习输入文本和输出标签的某些单词之间的虚假相关性。这种虚假相关性可能会破坏ABSA模型的性能。这个问题的一个直接解决方案是让模型看到并学习情感表达的解释,而不是某些单词。受此启发,我们利用大型语言模型 (LLM) 对每个方面的情感极性的解释来减少 ABSA 中的虚假相关性。首先,我们制定一个提示模板,该模板包含句子、方面和情感标签。此模板用于提示 LLM 生成适当的解释,说明情绪原因。然后,我们提出了两种简单而有效的方法来利用解释来防止虚假相关性的学习。我们通过将它们与一些具有代表性的ABSA模型相结合,对五个数据集进行了广泛的比较实验。结果表明,该方法可以提高ABSA模型的性能,增强其性能和泛化能力。
下图可以看出作者使用 LLM 生成训练集里对话和情感的解释,在学习的时候有两种方法可以使用这个情感解释数据
- 第一种是把解释看成和原文语义相似的给数据集带来多样性的增强数据,直接多学一倍的量;
- 另一种是通过知识蒸馏,把通过学习情感解释预测情感的模型蒸馏给学习原始数据的模型。论文解释其原因:直接混合无法将原句子与相应的解释对齐,这导致无法提供定制的引导学习。为此,我们使用引导策略来鼓励ABSA模型在拟合每个样本时减少虚假相关性。(启发:LLM 可以用来生成情感的解释引导模型判断出更具解释性而非单纯学到统计分布虚假相关性的内容)
SIR-ABSC: Incorporating Syntax into RoBERTa-based Sentiment Analysis Models with a Special Aggregator Token
摘要:我们提出了一种简单但有效的方法,将句法依赖信息直接合并到基于转换器的语言模型(例如RoBERTa)中,用于诸如基于方面的情感分类(ABSC)之类的任务,其中所需的输出依赖于特定的输入令牌。先前的ABSC方法是通过将语言模型与依赖树上的图神经网络相结合来捕获语法,与此相反,我们的模型,用于ABSC的语法集成RoBERTa (SIR-ABSC)通过使用新的聚合器令牌将语法直接合并到语言模型中。sir - abs1优于这些更复杂的模型,在ABSC上产生新的最先进的结果
从下图理解,作者的目的是把 2-stage 的 PLM+GNN 的模式改进为 1-stage 的形式,做法是在 PLM了一个 [g] token 来模拟 GNN 中的 global 节点,并通过单独为这个 token 设置 MASK,使它只对一定距离内的 token 关注(此处的距离使用的是句法距离),并且每层使用不同的设置,实现了类似 GNN 一层层往上融合越来越多节点信息的感觉;
Last update: 2021-07-02
type
status
date
slug
summary
tags
category
icon
password
🎉 欢迎来到我的小站!
📚 这里主要分享记录开发技术和AI知识👀
❤️ 若您认可我的内容,欢迎请我喝杯咖啡~