报错:RuntimeError: Adam does not support sparse gradients, please consider SparseAdam instead

编程知识 更新时间:2023-05-02 05:34:20

 

日萌社

人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新)


    使用torch.optim.Adam(model.parameters(), lr=0.1)后报错如下:
        RuntimeError: Adam does not support sparse gradients, please consider SparseAdam instead
    分析:因为Adam的关系,所以nn.Embedding(vocab_size, embed_dim, sparse=True)中的sparse不能等于True,必须为False
    解决:nn.Embedding(vocab_size, embed_dim, sparse=False)

更多推荐

报错:RuntimeError: Adam does not support sparse gradients, please consider SparseA

本文发布于:2023-04-26 07:17:00,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/9aa8ffaed3dc7283d036c5eef2f7c363.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:报错   Adam   RuntimeError   support   gradients

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!

  • 104673文章数
  • 26217阅读数
  • 0评论数