admin管理员组

文章数量:1612065

RuntimeError: CUDA out of memory. Tried to allocate 14763.13 GiB (GPU 3; 10.73 GiB total capacity; 165.28 MiB already allocated; 9.61 GiB free; 10.72 MiB cached)

原因:要将大量数据加载到GPU上时出现的错误,数据量太大了
解决办法:做数据的切分,一个batch一个batch的分批计算。在pytorch中有个Dataset类,可以自己定义一个加载数据的类,继承Dataset,同时实现Dataset的两个方法:getitem() 和 len() ,然后使用 Dataloader 对自定义的类进行包装后,在训练阶段就可以让pytorch自动为你批量加载数据了,具体的实现细节参考我的另一篇文章 Pytorch数据读取(Dataset, DataLoader, DataLoaderIter)

本文标签: GiBGPUCUDAMemoryallocate