深度学习TensorRT安装,以及VS2019、CUDA、cuDNN匹配

编程入门 行业动态 更新时间:2024-09-26 04:17:05

<a href=https://www.elefans.com/category/jswz/34/1769690.html style=深度学习TensorRT安装,以及VS2019、CUDA、cuDNN匹配"/>

深度学习TensorRT安装,以及VS2019、CUDA、cuDNN匹配

准备在Windows10上安装TensorRT用于深度学习,查询得知首先要安装CUDA和cuDNN,但安装之前要先安装VS,因为安装CUDA工具包时会自动安装vs中的一些插件,如果顺序反了的话,后续要手动配置,非常麻烦。当然安装之前还需要考虑自己电脑的配置,以及各版本之间是否匹配,减少不必要的麻烦!

已经提前配置好pycharm和Anaconda,选用python = 3.9的版本

目录

  • 一、安装准备
  • 二、VS2019安装(安装社区版的忽略此部分)
  • 三、CUDA和cuDNN安装
  • 四、TensorRT安装(C++部署)
  • 五、TensorRT安装(python部署)

一、安装准备

1、查看电脑的GPU是否支持TensorRT
查询得知本人显卡GeForce GT 1030的算力为6.1,TensorRT支持计算能力在5.0及以上的显卡,可以安装

参考:
(1)Nvidia的显示GeForce GT 1030的算力
(2)TensorRT详细入门指北,如果你还不了解TensorRT

2、查看显卡支持的CUDA版本

(1)win+R打开cmd,输入nvidia-smi,即可看到显卡支持的cuda版本是12.2

3、查看VS跟CUDA可以匹配的版本

这里选择Windows11+VS2019+CUDA11.8
参考:Windows11+VS2019+CUDA11.8配置过程

4、查看电脑中是否安装CUDA

(1)打开命令提示符窗口(Windows键+R,输入cmd,回车)
(2)输入 nvcc -V
(3)如果电脑已经安装了CUDA,则会显示CUDA版本信息,如"CUDA Version 10.1",如果没有安装,显示一下内容

二、VS2019安装(安装社区版的忽略此部分)

下载企业版离线包(因社区版无法安装)

(1)解压离线包后,打开文件找到vc_enterprise,以管理员身份运行

(2)根据自己的需要选择安装组件,正常选择上图2个功能就够了

(3)更改位置直接将字母C改成D,其他不要改,不要自己建文件夹

(4)启动后点击以后再说


(5)选择"继续但无需代码"


(6)点击使用产品密匙解锁

(7)输入产品密钥


VS 2019安装完毕!

三、CUDA和cuDNN安装

参考:【Windows11】Cuda和Cudnn详细安装教程

四、TensorRT安装(C++部署)

1、下载

下载地址:

2、先注册会员下载

3、下载window10版本

4、解压到任意文件夹

5、把bin文件路径添加到系统环境变量中

6、复制lib目录下的所有dll文件到cuda的bin下

将 TensorRT-8.5.2.2\include中头文件copy到D:\CUDA\set_up\cuda11.8.0\include
将TensorRT-8.5.2.2\lib中所有lib文件copy到D:\CUDA\set_up\cuda11.8.0\lib\x64
将TensorRT-8.5.2.2\lib中所有dll文件copy 到D:\CUDA\set_up\cuda11.8.0\bin

7、conda的虚拟环境 ,执行下面三个命令

pip install nvidia-pyindex
pip install graphsurgeon
pip install uff

8、用VS2019 打开 D:\TensorRT-8.5.2.2\samples\sampleOnnxMNIST\sample_onnx_mnist


(1)生成界面如下:


(2)点击sample_onnx_mnist的生成

(3)显示以下界面表示成功


8、配置TensorRT

(1)VC++目录,包含目录(就是include文件夹),库目录,就是刚才的lib所在文件夹

(2)为了防止后面执行exe操作闪退,添加getchar()到main函数下

9、编译成功后,会在 D:\TensorRT-8.5.2.2\bin路径下生成文件sample_onnx_mnist


(1)双击sample_onnx_mnist,出现找不到zlibwapi.dll

(2)自行下载:

下载地址/

(3)将下载的压缩包中的zlibwapi.dll和zlibwapi.lib放于CUDA的bin和lib文件夹下

再次运行,成功!

五、TensorRT安装(python部署)

1、创建虚拟环境

打开conda命令控制台

conda create -n tensorrt python=3.9  #创建conda虚拟环境
activate tensorrt  #激活conda虚拟环境

2、查看CUDA安装版本


3、打开TensorRT文件夹内的python子目录,根据python版本选择好对应的whl文件

4、进入tensorrt的虚拟环境,安装tensorRT

pip install D:\TensorRT-8.5.2.2\python\tensorrt-8.5.2.2-cp39-none-win_amd64.whl

5、安装pycuda

PyCUDA是一种Python编程语言的扩展库,可以让开发者使用NVIDIA的CUDA平台编写GPU计算程序。CUDA是一种用于NVIDIA GPU的并行计算平台,它允许开发者利用GPU的高度并行性和内存带宽,提高计算速度和性能。

6、测试


TensorRT安装成功!

更多推荐

深度学习TensorRT安装,以及VS2019、CUDA、cuDNN匹配

本文发布于:2024-02-28 03:36:42,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1768076.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:深度   TensorRT   CUDA   cuDNN

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!