8. 各框架模型转ONNX参考

本章节主要提供了将PyTorch, TensorFlow与PaddlePaddle模型转为ONNX模型的方式参考,读者也可以参考ONNX官方仓库提供的转模型教程: https://github.com/onnx/tutorials。本章节中的所有操作均在Docker容器中进行,具体的环境配置方式请参考第二章的内容。

8.1. PyTorch模型转ONNX

本节以一个自主搭建的简易PyTorch模型为例进行onnx转换

8.1.1. 步骤0:创建工作目录

在命令行中创建并进入torch_model目录。

1$ mkdir torch_model
2$ cd torch_model

8.1.2. 步骤1:搭建并保存模型

在该目录下创建名为simple_net.py的脚本并运行,脚本的具体内容如下:

 1#!/usr/bin/env python3
 2import torch
 3
 4# Build a simple nn model
 5class SimpleModel(torch.nn.Module):
 6
 7   def __init__(self):
 8      super(SimpleModel, self).__init__()
 9      self.m1 = torch.nn.Conv2d(3, 8, 3, 1, 0)
10      self.m2 = torch.nn.Conv2d(8, 8, 3, 1, 1)
11
12   def forward(self, x):
13      y0 = self.m1(x)
14      y1 = self.m2(y0)
15      y2 = y0 + y1
16      return y2
17
18# Create a SimpleModel and save its weight in the current directory
19model = SimpleModel()
20torch.save(model.state_dict(), "weight.pth")

运行完后我们会在当前目录下获得一个weight.pth的权重文件。

8.1.3. 步骤2:导出ONNX模型

在该目录下创建另一个名为export_onnx.py的脚本并运行,脚本的具体内容如下:

 1#!/usr/bin/env python3
 2import torch
 3from simple_net import SimpleModel
 4
 5# Load the pretrained model and export it as onnx
 6model = SimpleModel()
 7model.eval()
 8checkpoint = torch.load("weight.pth", map_location="cpu")
 9model.load_state_dict(checkpoint)
10
11# Prepare input tensor
12input = torch.randn(1, 3, 16, 16, requires_grad=True)
13
14# Export the torch model as onnx
15torch.onnx.export(model,
16                  input,
17                  'model.onnx', # name of the exported onnx model
18                  opset_version=13,
19                  export_params=True,
20                  do_constant_folding=True)

运行完脚本后,我们即可在当前目录下得到名为model.onnx的onnx模型。

8.2. TensorFlow模型转ONNX

本节以TensorFlow官方仓库中提供的mobilenet_v1_0.25_224模型作为转换样例。

8.2.1. 步骤0:创建工作目录

在命令行中创建并进入tf_model目录。

1$ mkdir tf_model
2$ cd tf_model

8.2.2. 步骤1:准备并转换模型

命令行中通过以下命令下载模型并利用tf2onnx工具将其导出为ONNX模型:

1$ wget -nc http://download.tensorflow.org/models/mobilenet_v1_2018_08_02/mobilenet_v1_0.25_224.tgz
2# tar to get "*.pb" model def file
3$ tar xzf mobilenet_v1_0.25_224.tgz
4$ python -m tf2onnx.convert --graphdef mobilenet_v1_0.25_224_frozen.pb \
5    --output mnet_25.onnx --inputs input:0 \
6    --inputs-as-nchw input:0 \
7    --outputs MobilenetV1/Predictions/Reshape_1:0

运行以上所有命令后我们即可在当前目录下得到名为mnet_25.onnx的onnx模型。

8.3. PaddlePaddle模型转ONNX

本节以PaddlePaddle官方仓库中提供的SqueezeNet1_1模型作为转换样例。

8.3.1. 步骤0:创建工作目录

在命令行中创建并进入pp_model目录。

1$ mkdir pp_model
2$ cd pp_model

8.3.2. 步骤1:准备模型

在命令行中通过以下命令下载模型:

1$ wget https://bj.bcebos.com/paddlehub/fastdeploy/SqueezeNet1_1_infer.tgz
2$ tar xzf SqueezeNet1_1_infer.tgz
3$ cd SqueezeNet1_1_infer

并用PaddlePaddle项目中的paddle_infer_shape.py脚本对模型进行shape推理,此处将输入shape以NCHW的格式设置为[1,3,224,224]:

1$ wget https://raw.githubusercontent.com/PaddlePaddle/Paddle2ONNX/develop/tools/paddle/paddle_infer_shape.py
2$ python paddle_infer_shape.py  --model_dir . \
3                          --model_filename inference.pdmodel \
4                          --params_filename inference.pdiparams \
5                          --save_dir new_model \
6                          --input_shape_dict="{'inputs':[1,3,224,224]}"

运行完以上所有命令后我们将处于SqueezeNet1_1_infer目录下,并在该目录下有一个new_model的目录。

8.3.3. 步骤2:转换模型

在命令行中通过以下命令安装paddle2onnx工具,并利用该工具将PaddlePaddle模型转为ONNX模型:

1$ pip install paddle2onnx
2$ paddle2onnx  --model_dir new_model \
3          --model_filename inference.pdmodel \
4          --params_filename inference.pdiparams \
5          --opset_version 13 \
6          --save_file squeezenet1_1.onnx

运行完以上所有命令后我们将获得一个名为squeezenet1_1.onnx的onnx模型。