背景
硕士生李昂、赵敬乾论文获NAACL 2025录用
2025-01-28 10:35 HITSZ-HLT    (浏览量)
图片


20251月,研究团队硕士生李昂和赵敬乾合作的论文《Mitigating Biases of Large Language Models in Stance Detection with Counterfactual Augmented Calibration》获2025 Annual Conference of the Nations of the Americas Chapter of the Association for Computational Linguistics NAACL 2025)录用。NAACL即北美计算语言学协会年会,是自然语言处理领域国际顶级学术会议之一,在中国计算机学会推荐会议列表中被列为B类。本次会议将于2025429-54日在美国新墨西哥州阿尔伯克基举行。论文信息如下:
题目:Mitigating Biases of Large Language Models in Stance Detection with Counterfactual Augmented Calibration
类别:NAACL 2025主会
作者:Ang Li, Jingqian Zhao, Bin Liang, Lin Gui, Hui Wang, Xi Zeng, Xingwei Liang, Kam-Fai Wong, Ruifeng Xu*
简介:尽管大语言模型(LLMs)在包括立场检测在内的众多自然语言处理任务中取得了显著进展,其性能仍受到偏见和虚假相关性的限制,这主要源于其数据驱动的本质。我们的统计实验揭示,LLMs 容易因情感-立场虚假相关性以及对特定话题的偏好而生成有偏立场。进一步分析表明,立场偏差与立场检测性能之间呈现显著负相关关系,这显示了缓解偏差对于提升立场检测性能的重要性。为此,本文提出了一种反事实增强校准网络(FACTUAL),通过设计一种创新的校准网络来减轻LLMs在立场预测中的潜在偏差。此外,为解决偏差表示学习的有效性和去偏方法泛化能力的不足,本文构建了反事实增强数据以提升校准网络的去偏效果,同时增强其跨领域任务的泛化能力。实验结果表明,在目标任务和零样本立场检测任务中,FACTUAL能够显著缓解LLMs的立场偏差,且在多个基准数据集上实现了SOTA结果。


图片


审稿:徐睿峰
校正:王   丹



打印    收藏
关闭窗口

Return Top