2025年1月,研究团队硕士生李昂和赵敬乾合作的论文《Mitigating Biases of Large Language Models in Stance Detection with Counterfactual Augmented Calibration》获2025 Annual Conference of the Nations of the Americas Chapter of the Association for Computational Linguistics (NAACL 2025)录用。NAACL即北美计算语言学协会年会,是自然语言处理领域国际顶级学术会议之一,在中国计算机学会推荐会议列表中被列为B类。本次会议将于2025年4月29日-5月4日在美国新墨西哥州阿尔伯克基举行。论文信息如下:
题目:Mitigating Biases of Large Language Models in Stance Detection with Counterfactual Augmented Calibration
作者:Ang Li, Jingqian Zhao, Bin Liang, Lin Gui, Hui Wang, Xi Zeng, Xingwei Liang, Kam-Fai Wong, Ruifeng Xu*
简介:尽管大语言模型(LLMs)在包括立场检测在内的众多自然语言处理任务中取得了显著进展,其性能仍受到偏见和虚假相关性的限制,这主要源于其数据驱动的本质。我们的统计实验揭示,LLMs 容易因情感-立场虚假相关性以及对特定话题的偏好而生成有偏立场。进一步分析表明,立场偏差与立场检测性能之间呈现显著负相关关系,这显示了缓解偏差对于提升立场检测性能的重要性。为此,本文提出了一种反事实增强校准网络(FACTUAL),通过设计一种创新的校准网络来减轻LLMs在立场预测中的潜在偏差。此外,为解决偏差表示学习的有效性和去偏方法泛化能力的不足,本文构建了反事实增强数据以提升校准网络的去偏效果,同时增强其跨领域任务的泛化能力。实验结果表明,在目标任务和零样本立场检测任务中,FACTUAL能够显著缓解LLMs的立场偏差,且在多个基准数据集上实现了SOTA结果。

|