admin管理员组

文章数量:1567522

一、背景

最近一段时间在做深度学习Tensorflow2.x的项目,由于涉及到了docker环境下的tensorfow的GPU加速,于是我就在电脑(飞行堡垒)装双系统win10+ubuntu,后改成了win10上面装WSL(Win10的linux子系统)。由于前边装双系统的过程中系统出了一些问题,就重装了win10系统,之前装的cuda和cudnn也需要重装。

无奈,国内访问Nvida的官网进不去,只能另寻他法

二、访问Nvida网站下载cuda和cudnn方法探索

1、通过腾讯云购买按量付费(宽带小时计费)的新加坡地区的windows服务器,正常访问Nvida官网。然后下载了cuda和cudnn。

东西是下载下来了,可是怎么传回本地呢?我试了直接点复制然后粘贴到本地,但是将近3G大小的文件时间需要1个多小时,而且中途还中断,于是另寻他法。尝试在云服务器登陆阿里网盘,把下载的文件上传阿里网盘,然后再在本地下载(传递速度好几M每秒,远远快于某度的几十k的速度)。

看到这里,是不是觉得耳目一新啊,这个网盘速度就是给力。

接下来就是安装了,安装的具体步骤不多说,不过提一下注意事项:安装顺序为cuda---->cudnn----->tensorflow2.x安装,不然tensorflow适配不到正确的cuda,会报错。

 2、Win10环境下的深度学习环境解决后,WSL环境(Win10子系统Linux环境)下的docker nvida环境再次需要访问Nvida的官网。这下我火了,因为腾讯云销毁了实例后出现了收费疑问,提交工单后才发现工单处理的速度啊跟某度盘下载大文件的速度可以相媲美,于是就放弃了再次用云服务器下载相关文件了。

灵感,有时候是很重要的。记得上大三的时候,学习Android课程需要下载AndroidStudio,直接访问官网下载是访问不了的,但可以访问国内镜像,这速度问题不就解决了么。Tensorflow官网下载东西也是无法直接访问的,但是可以通过镜像访问啊。微软的官网直接访问速度很慢,可是把网站的后缀改成后速度不就很快了么。

基于以上灵感,我就将https://developer.nvidia/cuda-toolkit 里面的改成了

很快便看到了久别重逢的下载界面,是不是有点兴奋啊

 3、WSL版本的Nvida路径也通过这个方法实现快速访问(https://developer.download.nvidia/compute/cuda/repos/wsl-ubuntu/x86_64/)

此处总结既是对自己解决问题经验的积累,也是一种知识的分享。希望我上面获取Cuda和Cudnn的方法对接触人工智能深度学习的朋友们有所启发,大家相互学习。

 

 

本文标签: 官方网站方案CUDAcuDNN