[论文笔记]MobileBERT

编程入门 行业动态 更新时间:2024-10-28 07:34:41

[论文<a href=https://www.elefans.com/category/jswz/34/1770047.html style=笔记]MobileBERT"/>

[论文笔记]MobileBERT

引言

今天带来一篇关于量化的论文MobileBERT,题目翻译过来是:一种适用于资源有限设备的紧凑型任务无关BERT模型。模型的简称是MobileBERT,意思是作者的这个BERT模型可以部署到手机端。

本篇工作,作者提出了MobileBERT用于压缩和加速BERT模型。与原始BERT一样,MobileBERT也是任务无关的,即它仅需简单的微调就能广泛地应用于不同的下游任务。本质上,MobileBERT是一个精简版的BERT-large,配备了瓶颈结构(bottleneck structure)和精心设计的自注意力和前馈网络之间的平衡。

要训练MobileBERT,作者首先训练一个特别的教师模型,一个集成了倒置瓶颈的BERT-large模型。然后,将知识从教师模型转移到MobileBERT上。

总体介绍

BERT自提出来之后在各种NLP任务上的效果惊人,但由于BERT的规模较大,存在参数量过大和高延迟问题,使它不可能部署到资源受限的移动设备上,来进行手机上的机器翻译、对话管理等。

已经有一些工作将BERT压缩为任务相关的紧凑模型。但还没有任何工作来构建一个任务无关的轻量级预训练模型,即一个可以像原始的BERT一样在不同的下游任务上进行通用微调的模型。本篇工作,作者提出MobileBERT来填补这个空白。实际上,任务无关的BERT压缩是可行的。

任务相关的压缩需要先将原始大BERT模型微调为任务相关的教师模型,然后进行蒸馏。这个过程比直接微调任务无关的紧凑模型更复杂,且成本更高。

但获得一个任务无关的紧凑BERT可能没有想象的那么简单,比如简单地选择一个更窄或更浅的BERT模型&#

更多推荐

[论文笔记]MobileBERT

本文发布于:2023-12-04 10:31:02,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1660623.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:笔记   论文   MobileBERT

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!