背景
研究团队七篇论文获ACL 2023录用
2023-05-17 14:18 HITSZ-HLT    (浏览量)

图片

53日,ACL 2023论文录用结果公布。研究团队共有七篇论文被ACL 2023录取。国际计算语言学年会(Annual Meeting of the Association for Computational Linguistics,简称ACL)是计算语言学和自然语言处理领域的国际排名第一的顶级学术会议,每年召开一次。在中国计算机学会推荐会议列表中被列为A类会议。2023年是第61届会议,将于202379日至714日在加拿大多伦多举行。

以下为论文列表及介绍:

标题:A Synthetic Data Generation Framework for Grounded Dialogues

作者:Jianzhu Bao, Rui Wang, Yasheng Wang, Aixin Sun, Yitong Li, Fei Mi and Ruifeng Xu*

类别: Main Conference

简介:训练基于知识的对话生成模型往往需要大量的基于知识的对话数据。然而,构建这种数据集的成本很高。本文提出了一个针对基于知识的对话的合成数据生成框架(SynDG)。该框架借助了大型预训练的语言模型和容易获取的知识数据(如维基百科网页、人物简介等),其关键思想是在生成合成对话的过程中考虑对话流和对话一致性。具体来说,给定知识数据后,首先启发式地确定一个对话流,即一个知识片段序列。然后,采用T5来逐步将对话流转化为对话。为了确保对话流和合成对话的一致性,设计了一个能够在对话流层面和对话层面分别评估合成对话质量的两级过滤策略。在两个公开数据集上的实验表明,在高资源和低资源的场景下,由该框架所产生的合成对话数据都能够显著提高模型的性能。


图片
标题:Retrieval-free Knowledge Injection through Multi- Document Traversal for Dialogue Models
作者:Rui WangJianzhu BaoFei Mi, Yi Chen, Hongru Wang, Yasheng Wang, Yitong Li, Lifeng Shang, Ruifeng Xu* KamFai Wong
类别: Main Conference
对话预训练模型(Pretrained Dialogue Model 需要知识才能支撑与用户的深入交流。但是对话数据往往收集自社交媒体,数据质量较低,而人工构建的对话数据规模较。因此对话模型缺乏大规模高质量的知识密集的对话数据来直接增强模型的回复能力。针对这一问题,本文提出一种将大量知识文档自动转换为知识密集对话的方法(KiDG):利用文章间主题关系和文章内行文逻辑,模仿人类对话习惯对文章的句子进行采样,通过对话修复(Dialog Inpainting)获得大量高质量的对话。我们将1.3M的知识文档转换为3.75M的对话数据,并且对模型进行训练。实验结果显示该方法产生的数据可以很好的增强模型的知识回复能力,在公开数据集上与无需检索的方法相比具有显著优势,并且获得了与检索增强的方法媲美的性能。
图片
标题:MMSD2.0: Towards a Reliable Multi-modal Sarcasm Detection System.
作者:Libo Qin#, Shijue Huang#, Qiguang Chen, Chenran Cai, Yudi Zhang, Bin Liang, Wanxiang Che and Ruifeng Xu*
类别:Findings of ACL.
简介:多模态讽刺检测(Multi-modal sarcasm detection)近来受到广泛关注,然而现有的基准数据集存在一些缺点,阻碍了可靠的多模态讽刺检测系统的发展。本文首先分析了当前多模态讽刺检测数据集中的潜在问题,然后通过去除虚假线索和重新标注不合理的样本,构造了一个更加可靠的校正数据集MMSD2.0。此外,本文提出了一个新的框架multi-view CLIP,可以从不同的角度捕捉多模态讽刺线索。实验表明,MMSD2.0是构建可靠的多模态讽刺检测系统的一个有价值的基准数据集,同时multi-view CLIP可以显著优于以前的方法。
图片
标题:Context or Knowledge is Not Always Necessary: A Contrastive Learning Framework for Emotion Recognition in Conversations
作者:Geng Tu, Bin Liang, Ruibin Mao, Min Yang and Ruifeng Xu*
类别:Findings of ACL.
简介:对话情绪识别(ERC)旨在检测对话中每句话语的情绪。现有的工作通常侧重于对上下文和知识敏感的依赖关系进行建模。然而,可以观察到,在没有上下文或外部知识的情况下,许多话语的情绪仍然可以被正确识别。在这种情况下,盲目利用上下文和外部知识可能反而阻碍模型训练。基于此,我们提出了一种基于对比学习(CL)的新框架,称为CKCL(包括上下文和知识之间的对比学习场景),以区分上述话语,从而获得更好的向量表示。CKCL框架将上下文和知识无关的话语定义为正样本,其他为负样本。这可以获得反映上下文和外部知识对预测结果影响程度的潜在特征,从而在训练过程中有效地对无关上下文和知识进行去噪。实验结果显示,该方法可以明显提升对话情绪识别性能。
图片
标题:A Diffusion Model for Event Skeleton Generation
作者:Fangqi Zhu, Lin Zhang, Jun Gao, Bing Qin, Ruifeng Xu* and Haiqin Yang*
类别:Findings of ACL
简介:事件骨架生成旨在从一组事件实例图中归纳出带有抽象的事件节点及其时序关系的事件模式骨架图,是时序复杂事件模式归纳任务中的关键步骤。现有的自回归图生成方法存在着噪声敏感和无法在生成图时中纠正错误的问题。因此,本文提出了一个新的扩散事件图模型(DEGM)解决这些问题。DEGM是第一个用于事件骨架生成任务的可行的扩散模型。提出了嵌入和舍入技术以及基于图结构重建的损失函数来将事件图转化成可学习的隐变量。同时设计了去噪式的训练过程来增强模型的鲁棒性,在生成模式图时通过在隐变量上的迭代微调不断修正模式图中的错误。在三个IED爆炸数据集上的实验结果表明, DEGM取得了比其他最先进的基线更好的结果。
图片
题目:Probing Graph Decomposition for Argument Pair Extraction
作者:Yang Sun, Bin Liang, Jianzhu Bao, Yice Zhang, Geng Tu, Min Yang*, Ruifeng Xu*
类别:Findings of ACL
简介:论点对抽取任务旨在从两个对话段落中抽取交互式的论点对。论点对抽取的主要挑战是有效地捕捉两个段落中的复杂、上下文感知的论点之间的交互关系。本文通过一种探测技术从大规模预训练语言模型中引出关系语义知识。所引出的句子级关系探测图可帮助有效地捕捉论点对之间丰富的明确交互关系。由于段落内的句子对的相关性得分通常大于来自不同段落的句子对的得分,每个句子都倾向于在同一段落内传播信息,而未充分探索两个段落之间的交互关系。为了解决这个问题,本文提出了一种图分解方法,从段内和段间的角度将探测图分解成四个子图,其中段内图可以帮助检测每个段落内的论点跨度,而段间图可以帮助识别评论和反驳段落之间的论点对。在两个基准数据集上的实验结果表明,该方法相对于强基准线实现了显著的改进。
图片
标题:An Empirical Study of Sentiment-Enhanced Pre-Training for Aspect-Based Sentiment Analysis
作者:Yice Zhang, Yifan Yang, Bin Liang, Shiwei Chen, Bing Qin, Ruifeng Xu
类别:Findings of ACL
简历:方面级情感分析(ABSA)研究如何识别针对特定方面的情感和观点。最近一些研究表明,情感增强的预训练(SPT)可以显著提高多个ABSA任务的性能。然而,到目前为止,还没有对现有情感增强预训练方法进行全面评估和公正比较的工作。因此,本文通过实验性分析系统地研究和比较了现有方法的有效性。本文主要关注以下三个问题:(a)不同的情感知识对于下游任务的影响是什么?(b)哪种知识结合方式最有效?(c)插入非情感特定的语言学知识,如词性标记和依存关系,是否可以提高ABSA任务的性能?基于对上述问题的探究,本文构造出了一个强大的情感预训练模型,并在多个ABSA任务上进行了评估。
图片
审稿:徐睿峰
校正:王   丹



打印    收藏
关闭窗口

Return Top