admin管理员组文章数量:1652185
文章目录
- 1 简介
- 1.1 动机
- 1.2 创新
- 2 方法
- 3 实验
1 简介
论文题目:A Two-Step Approach for Implicit Event Argument Detection
论文来源:ACL 2020
论文链接:https://aclanthology/2020.acl-main.667.pdf
代码链接:https://github/zzsfornlp/zmsp
1.1 动机
- 事件论元检测目前的SOAT方法分为两种:基于span和序列标注,基于span的方法复杂度太高;序列标注的方法在复杂场景中灵活性和可扩展性较差,如重叠提及和一个提及有多个角色。
1.2 创新
- 提出了一个2步的方法:首先检测出论元的head-word,然后再进行head-span的扩展。(假设head-word可以捕捉提及spans的信息)
2 方法
模型的整体框架如上图,主要包括下面三部分:
-
BERT Encoder:输入为触发词和触发词周围的句子(window size=5),同时使用一个indicator标识token(触发词为0,触发词所在句子的其他token为1,周围句子的token为0)
-
Argument Head-word Detector:使用biaffine模块(公式如下面第2个图参考链接,仿射变换的第一项可以建模i和j之间的可能性,第二项建模j对任何依赖的先验概率)计算概率 P r r ( p , c ) Pr_r(p,c) Prr(p,c),表示候选词c在谓词p中扮演论元角色为r的概率。(在推理过程中,如果一个角色有多个论元,选择分数最高的论元)计算公式如下:
-
Head-to-span Expander:该部分将head-word扩展为完整的span,将其视为左右分类问题,例如左边扩展的场景(设置K=7表示左边的单词最大边界),公式如下
3 实验
实验数据集为RAMS(v1.0),在真实论元span的情况下的实验结果如下:
完整的论元检测的实验结果如下图:
消融实验:
在触发词和论元不同距离的实验表现:
分析最频繁的20个论元角色的实验结果如下:
人工分析部分的结果:
版权声明:本文标题:论文笔记 ACL 2020|A Two-Step Approach for Implicit Event Argument Detection 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://www.elefans.com/dianzi/1729579149a1207393.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论