BART: Denoising Sequence

编程入门 行业动态 更新时间:2024-10-27 06:19:37

<a href=https://www.elefans.com/category/jswz/34/221203.html style=BART: Denoising Sequence"/>

BART: Denoising Sequence

BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension

Abstract

本文提出 BART (Bidirectional and Auto-Regressive Transformers),一个用于预训练 seq2seq 模型的去噪自编码器。BART 的训练过程包括:

  • corrupting text with an arbitrary noising fuction
  • learnging a model to reconstruct the original text.

BART 使用标准的基于 Transformer 的神经机器翻译架构,可以看做是 BERT(双向编码器),GPT(从左到右的解码器), 以及近期很多其他预训练机制的推广。

我们评估了很多 noising approaches, 发现性能最好的两种是:

  • 随机打乱句子的顺序
  • in-filling scheme: spans of text are replaced with a single m

更多推荐

BART: Denoising Sequence

本文发布于:2024-03-08 20:18:05,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1722190.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:BART   Denoising   Sequence

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!