[NLU] DialogueGCN: A Graph Convolutional Neural Network for Emotion Recognition in Conversation

编程知识 更新时间:2023-05-02 21:10:34

总述:

最大的特色就是将GCN用在了对话情感识别上,这里的coversation可能是不止两个人的。然后故事写得很好,inter-dependency和intra-dependency还有self-dependency唬的我一愣一愣的。

主要模型:

inter-depencency   intra-dependency

所谓的inter-dependency其实就是说某一个speak对其他speaker情感的影响,或者说当前这个speaker受到其他speaker的影响(反正是受到外界的影响),而intra-dependency或者那个self-dependency就是受到自己前面说的话的影响。在这里作者就是一个用其他人说的话做了个encoder,一个用自己以前说的话做encoder(模型很简单故事很精彩,如果我理解错了,请各位大佬不吝赐教)

模型:

如图:主要模型分为三个部分,一个encoder部分,将用户的话语encoder成向量。第二个是个speaker-level context encoder部分,就是分用户进行encoding,也是建立所谓的inter-dependency和intra-dependency的时候,实质是通过gcn的传播找到各句话之间的联系。第三个部分就是一个emotion classify层了,这个十分简单。我觉得最有意思的一点就在于,建图方式

第一部分:

先用glove embedding和cnn抽取了每一个句子的特征,得到了句向量。然后再把整个对话塞给GRU,得到了最终每一句话的句向量。

第二部分:建图很有意思

首先,每一句话是一个节点,并且第一阶段得到的句向量作为node embedding。

建边的方式也挺简单的,因为没一个节点是一句话,那么一句话的上面N句话和下面F句话就是(N+F)个节点,当前这句话代表的节点和这(N+F)个节点有边QAQ

边的权值:就是看一下当前这个节点的embedding gi和哪个节点的embedding最相近,过一层softmax归一化一下就是边的权值

接下来还有个边的关系:因为讲的故事中有涉及到两种dependency,所以图的边还有了一种新的属性--关系,其实给每两个不同人说的话定义一个关系,然后又考虑到这两个人说的两句话的先后关系,所以两个人之间实际上有两种关系。一种A在B前面说话,一种B在A前面说话。然后这样子的话M个人其实就有M平方种关系了(考虑自己和自己)。

总算把图建好了,这个图就有个连接的权值矩阵,有个关系矩阵。

做GCN的过程:

其中r是关系,阿尔法是权值,Wr是关系矩阵,gi是初试node embedding。N表示临接节点。

第三部分:

然后用这两个矩阵做一做GCN得到每一个node的embedding,然后再用这个embedding做分类就好了

 

一句话总结:

本文用对话中的句子作为节点,引入了inter-dependency和intra-dependency的概念,扩展了GCN中Graph的内容,在情感分类任务上实现了最佳效果。

亮点:

建图方式,讲故事的合理性与新颖性。

更多推荐

[NLU] DialogueGCN: A Graph Convolutional Neural Network for Emotion Recognition

本文发布于:2023-04-28 16:43:00,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/5b12e459ade7d8e4d3e2822f0a6b99c5.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:Graph   Convolutional   NLU   DialogueGCN   Neural

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!

  • 109143文章数
  • 27709阅读数
  • 0评论数