Paper简读 - ChatGPT相关的GPT-1、GPT-2、GPT-3

编程知识 更新时间:2023-04-25 15:28:34

欢迎关注我的CSDN:https://spike.blog.csdn/
本文地址:https://blog.csdn/caroline_wendy/article/details/128909400

GPT、GPT-2、GPT-3:Generative Pre-trained Transformer,生成式预训练Transformer

  • Wiki: https://en.wikipedia/wiki/GPT-3

  • GPT-3 Demo: https://gpt3demo/

时间线:

  1. Transformer, 2017.6, Attention is all you need
  2. GPT, 2018.6, Improving Language Understanding by Generative Pre-Training: 使用Transformer的解码器,在没有标签的文本上,预训练模型
  3. BERT, 2018.10, BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding: Bidirectional Encoder Representations from Transformers,Transformer的编码器
  4. GPT-2, 2019.2,

更多推荐

Paper简读 - ChatGPT相关的GPT-1、GPT-2、GPT-3

本文发布于:2023-04-19 09:49:00,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/fc04702112774b81c332f060f97023a5.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:简读   Paper   GPT   ChatGPT

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!

  • 87611文章数
  • 20189阅读数
  • 0评论数