NLP-预训练模型-GPT系列:GPT-1(2018-06)、GPT-2(2019-02)、GPT-3(2020-05)、InstuctGPT(2022-01)、chatGPT(2022-11)

编程知识 行业动态 更新时间:2024-06-13 00:19:38

 

 GPT1:Imporoving Language Understanding By Generative Pre-training

GPT2:Lanuage Models Are Unsupervised Multitask Learners

GPT3:Language Models Are Few-shot Learners

GitHub:https://github/openai/gpt-3

从GPT三个版本的论文名也能看出各版本模型的重点:

  • GPT1:强调预训练
  • GPT2:强调Unsupervised Multitask就是说下游任务fintune的时候不用重新调整模型结构了
  • GPT3:强调Few-shot 就是连finetune都剩了,巨大的参数空间,可以直接few-shot甚至zero-shot

ChatGPT一夜走红,它会成为下一代搜索引擎吗?

更多推荐

NLP-预训练模型-GPT系列:GPT-1(2018-06)、GPT-2(2019-02)、GPT-3(2020-05)、InstuctGPT(2022-01)

本文发布于:2023-03-28 15:55:00,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/e11bc4905cc98f6886885c30b4dd6ae3.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:模型   系列   GPT   NLP   chatGPT

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!