Inductive Relation Prediction by BERT

编程入门 行业动态 更新时间:2024-10-27 09:35:16

Inductive <a href=https://www.elefans.com/category/jswz/34/1714200.html style=Relation Prediction by BERT"/>

Inductive Relation Prediction by BERT

摘要

知识图中的关系预测主要是基于嵌入的方法,这些方法主要关注转换设置。不幸的是,它们不能处理存在不可见实体和关系的归纳学习,也不能利用先验知识。此外,它们的推理过程也不容易解释。在这项工作中,我们提出了一个一体化的解决方案,称为BERTRL(基于bert的关系学习),它利用预训练的语言模型,并通过将关系实例及其可能的推理路径作为训练样本来对其进行微调。在18例中,有15例在感应和转导两种情况下BERTRL优于SOTAs。同时,该方法具有较强的小样本学习泛化能力和可解释性。数据和代码可以在。

1.介绍

知识图(KGs)在问答和推荐系统等广泛的任务中是必不可少的(Ji et al 2020)。由于许多知识图在实践中基本上是不完整的,因此知识图补全(KGC)在许多应用中成为必须的(Nickel et al . 2016)。

基于嵌入的方法,如TransE (Bordes等人2013年)、Complex (Trouillon等人2017年)、ConvE (Dettmers等人2018年)、RotatE (Sun等人2019年)和TuckER (Balaževic、Allen和Hospedales 2019年),在一些KGC基准测试中实现了最先进的性能。然而,这些方法的缺点是显而易见的,因为它们仅限于需要在训练时看到实体和关系的转换设置。在现实中,新的实体和关系会随着时间的推移而出现(归纳设置)。对于动态填充的知识图来说,再培训的成本可能太高了。除了归纳设置之外,这些专门的嵌入方法还不能轻易解决可解释性、少射学习和迁移学习问题。

逻辑归纳方法通过寻找概率子图模式(GraIL(Teru, Denis, and Hamilton 2020), CoMPILE(Mai

更多推荐

Inductive Relation Prediction by BERT

本文发布于:2024-03-23 21:57:21,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1743303.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:Relation   Inductive   BERT   Prediction

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!