[dialog system] 阅读笔记 - 2015__Neural Responding Machine for Short-Text Conversation

编程知识 更新时间:2023-05-02 21:09:03

Ref

  • Neural Responding Machine for Short-Text Conversation,Lifeng Shang, Zhengdong Lu, Hang Li,2015

Introduction

  • 李航老师团队的成果
  • 基于seq2seq + attention 建模
  • 贡献了包含440w条多轮对话的语料,数据来自微博

problem

沿用 seq2seq+attention 模型对 post-response pair 建模。由于post-response pair 并是不严格的平行语料,同一个word 在不同的context 中可能具有不同的meanings, 考虑将 context information 加入到经典的seq2seq+attention 模型中作为补充。

model

  • 一轮对话
  • end2end framework,RNN with GRU
  • global scheme: 将 RNN 中的last hidden state hgT 作为整个句子的全局信息
  • local scheme:采用经典的seq2seq+attention, 将 注解 hj 称为局部信息
  • hgT hj 拼接,作为具有上下文信息的 attention signal
  • global encode 和 local encode 分开训练
  • 最大似然估计
  • decode 采用beam search, beam size = 10
  • 评估:设计评分规则,人工评测

模型架构图如下

comment

发布了一个对话系统数据集;模型在attention的基础上加入context information 思路可取,但是方法的创新性不足。

更多推荐

[dialog system] 阅读笔记 - 2015__Neural Responding Machine for Short-Text Conversati

本文发布于:2023-04-28 16:34:00,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/970b795e54c19016f281d66a27ba7851.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:笔记   __Neural   system   dialog   Text

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!

  • 109115文章数
  • 27704阅读数
  • 0评论数