RuntimeError: CUDA error: an illegal memory access was encountered

编程知识 更新时间:2023-04-06 09:48:59

文章目录

  • 4. 我的解决
  • 1. 错误描述
  • 2. 自我尝试
    • 2.1 减小batch_size
    • 2.2 换卡改代码
  • 3. 调研情况

4. 我的解决


其实不难发现,我报错的位置基本都是从gpucpu转换的时候出现的问题。

  • 因此考虑是不是cpu内存不太够了,所以内存访问发生错误了
  • 由于我使用的是容器,因此在docker-compose或者dockerfile里将配置项改为:
        shm_size: 64G  →     shm_size: 128G
    
  • shm_size,共享内存(shared memory)
  • 之后就基本不报错了。。。

后续发现其实是某张卡有问题,

  • 0~3一共4个GPU,只在使用0号GPU的时候会出问题
  • 0号卡似乎是被某个进程锁了,还是怎么样,不用那个卡就没事了

1. 错误描述

例行吐槽,第一次遇到这个错误,我是非常无语的。以前是不报错的,和以前相比,不同的地方有

  1. 数据变多了,从80例变成了100例
  2. 换了个docker镜像,可能pytorch版本和cuda版本上有些问题
  3. 检查了代码,没有发生修改

2. 自我尝试

2.1 减小batch_size

感觉上可能会和显存有点关系吧

第一次报错

  • 结合自己的代码,我这个是在第一个epoch训练完成,validation阶段报的错(line 243
  • 报错后调整batch_size变小(10→8),继续报错

  • 不过上一步validation的地方已经走过去了,line 258报错
  • 说明把batch_size变小是有一定的效果的

按照这个思路继续把batch_size调小(8→5),又换了个位置报错。。

  • line 305报错

2.2 换卡改代码

换思路

  • 换了张卡,从0卡变到了1卡。。
  • 删除了非必须的CPU和GPU交换数据部分的代码
  • 依然报错
  • 用两张卡,batch_size设置10,不使用预训练模型,还是报错
  • 从头训练,单卡,batch_size=5
  • 从头训练,单卡,batch_size=4

    情况好了一点,都跑到第8个epoch了。但是还是断了

3. 调研情况

报错信息是CUDA丢出来的一个运行时错误,发生了非法内存访问。网上关于这个问题的讨论也很多,但是并没有发现有找到真正原因的。

很多都是靠感觉的

参考:

  • pytorch的github issue:RuntimeError: CUDA error: an illegal memory access was encountered
    • 这个回答好像有效的人比较多,一次惨痛的debug的经历-RuntimeError: CUDA error: an illegal memory access was encountered,这个人就是这么解决的
  • 另外还有一些是经验论的,
    • CSDN博客:[彻底解决]CUDA error: an illegal memory access was encountered(CUDA错误 非法访问内存)
  • yolo的GitHub issue:Cuda illegal memory access when running inference on *.engine #6311

更多推荐

RuntimeError: CUDA error: an illegal memory access was encountered

本文发布于:2023-04-06 09:48:00,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/014fbee99607ba760dd2076ed165952c.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:error   CUDA   RuntimeError   illegal   encountered

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!

  • 48897文章数
  • 14阅读数
  • 0评论数