背景
研究组王睿同学两篇论文获NAACL 2024录用
2024-03-18 10:10 HITSZ-HLT    (浏览量)
图片


2024314日,由硕士生王睿撰写的论文《Enhancing Large Language Models Against Inductive Instructions with Dual-critique Prompting》和《REGA: Role Prompting Guided Multi-Domain Adaptation for Large Language Models》分别获NAACL 2024主会和Findings录用。NAACL全称The North American Chapter of the Association for Computational Linguistics,在中国计算机学会推荐会议列表中被列为B类会议,在计算学部列为B类会议。今年会议将于616-21日在墨西哥墨西哥城召开。
以下为录用论文介绍:
题目:Enhancing Large Language Models Against Inductive Instructions
with Dual-critique Prompting
作者:Rui Wang#, Hongru Wang#, Fei Mi*, Boyang Xue, Yi Chen, Kam-Fai Wong, Ruifeng Xu*
录用类型:主会长文
简介:为了更好地让大语言模型(LLMs)遵循人类指令,并且确保模型回复是可信和可用,许多研究致力于将LLMs与人类意图对齐。然而,一些人类指令可能是恶意的或具有误导性的,LLMs如果遵循这些指令将会产生不真实和不安全的回应。现有工作很少关注LLMs如何应对由于用户的错误信念或恶意意图而产生的反事实前提的指令,这里称之为诱导性指令(inductive instructions)。本文旨在揭示LLMs在面对诱导性指令时的普遍行为,并据此提高它们的真实性(Truthfulness)和有用性(Helpfulness)。具体来说,首先引入了一个诱导性指令的评估基准:INDUST,将错误知识以多种不同方式改写为用户常用指令风格。经过大量的人工评估和自动评估,发现LLMs在处理诱导性指令时存在普遍的脆弱性。此外,发现不同的诱导风格会显著影响模型识别同一个错误知识的成功率,而底层错误知识的复杂性也会影响模型的表现。受这些结果的启发,论文提出了双重批判(Dual-Critique)提示以提高LLMs对诱导性指令的鲁棒性。实验结果表明,Dual-Critique显著增强了一系列LLMs的鲁棒性,即使在面对不同程度的诱导性指令复杂性和不同归纳风格时也表现出了较好的一致性。
图片
INDUST已开源至https://github.com/DevoAllen/INDust
题目:REGA: Role Prompting Guided Multi-Domain Adaptation for Large Language Models
作者:Rui Wang, Fei Mi*, Yi Chen, Boyang Xue, Hongru Wang, Qi Zhu, Kam-Fai Wong, Ruifeng Xu*
录用类别:Findings 长文
简介:大语言模型(LLMs)在垂直领域的应用研究工作面临一些重大挑战:当LLMs被定制到垂直领域时,LLMs往往会面临灾难性遗忘,而这会损害它们的通用能力(指令遵循能力等),导致用户体验不佳。此外,同时为多个领域打造一个多功能模型的方案,往往会因为领域之间的混淆而导致总体性能下降。为了应对这些问题,论文提出了角色提示引导的多领域适应(Role Prompting Guided Multi-Domain Adaptation, REGA)策略。这种方法通过三个关键组件有效地实现多领域LLMs适应:1)自我蒸馏(Self-Distillation)构建并回放通用领域的范例,以减轻灾难性遗忘。2)角色提示(Role Prompting)为通用领域分配一个中心提示(central prompt),并为每一个垂直领域分配一个独特的角色提示(role prompt),以最小化训练期间的领域间混淆。3)角色整合(Role Integration)重用并集成一小部分垂直领域数据到通用领域数据中,这些数据在中心提示的指导下进行训练。中心提示可以简化推理过程,推理时不必针对不同领域间切换对应的角色提示。实验结果表明,REGA策略有效地缓解了灾难性遗忘和领域间混淆。REGA训练的模型与baseline相比,不仅在垂直领域性能有所提升,同时仍然保持了强大的通用能力。
图片
审稿:徐睿峰
校正:王   丹




打印    收藏
关闭窗口

Return Top