论点对抽取任务
动机
贡献
方法
互指导框架:
训练&推理:
实验
消融实验可以看到,如果没有互指导,性能会大幅下降。此外,还能够看到,句间关系图对于模型的性能贡献也很大。
进一步比较模型对一对多的论点对抽取的效果。将测试集中所有的论点对分为了两个子集,一个仅包含一对一的论点对,另一个仅包含一对多的论点对。之后,对比之前的SOTA模型与本文模型在两个子集上的recall效果。可以看到,本文模型在对一对多的论点对的抽取更加有效,这样的提升很大程度上来自于本文模型在抽取论点对的时候,能够考虑整个文章序列。
最后,分析句间关系图的参数对于整体性能的影响。包括文章内句子关系的取值,共现词的阈值,以及GCN的层数所带来的影响。对于图4a,由于多数的论点都只包含少量的句子,因此不应该将距离过远的句子连接起来,否则性能会大幅下降。对于图4b,可以看到,两个句子间如果出现了多于两个的共现词,那么这两个句子很有可能就来自于同一对论点。对于图4c,可以看到GCN层数为1时效果是最好的。
结论
本文提出了一个高效的互指导框架用于论点对抽取。该方法能够在抽取论点对的过程中使得两篇文章相互指导。此外,我们引入了一个句间关系图,从而更高效地捕捉句子间的关系。最终的实验结果显示本文方法取得了明显的性能提高。
© 2019 哈尔滨工业大学(深圳)·智能计算研究中心 All rights reserved.