admin管理员组

文章数量:1654027

以下亲测可用。

(一)发现问题

基础环境为torch1.13在使用自带的torch.onnx.export函数转onnx模型时出现identify的op,并且卷积的名称也变为了onnx::Conv_***,虽然不影响onnx模型直接推理使用,但是如果是在ncnn等推理框架中是不支持该op的。

 查询资料有些博客说identify就是f(x)=x的算子op,其实不尽然,上面转的模型是直接作为输入了,本模型中没有其他的输入,只有img。

(二)分析问题

点击模型输入input的graph,可以看到使用的torch版本信息,这里是torch1.13,对应onnx是v13,解释一下onnx显示的v13版本是 torch.onnx.export函数中opset_version对应的输出版本。13对应onnxv7,11对应onnxv6。

在官网模型发现其版本中本有identify的op,但应版本为pytorch1.2,opset_version为9。

(三)解决问题

创建新的虚拟环境,安装历史版本torch1.2,转换模型只需要安装cpu版本的torch即可 。

conda install pytorch pytorch==1.2.0 torchvision==0.4.0 cpuonly -c pytorch

还有就是注意1.2版本torch.onnx.export的部分参数和1.13不一样,修改一下即可。最后导出来没有了identify op以及op名称没有了onnx::。

(四)思考

为什么新版本torch,onnx转换的结构中会出现identify,并且把identify识别为input,只能去看源码了,有了解的可以在评论区说科普下。

本文标签: 模型Pytorchidentifyonnx