5.1.2. FLOAT 模型生成

算丰系列智能视觉深度学习处理器平台仅支持BModel模型加速, 用户需要首先进行模型迁移, 把其他框架下训练好的模型转换为BModel才能在算丰系列智能视觉深度学习处理器上运行。

TPU-MLIR工具包

本文以 yolov5s.onnx 为例,介绍TPU-MLIR如何转换模型为FP32格式的BModel并部署。MLIR环境的配置,可以参考 tpu-mlir 环境初始化其他模型迁移请参考doc目录下的《TPU-MLIR快速入门指南》

yolov5的模型来自 yolov5的官网 ,可点击本链接进行下载。

5.1.2.1. 加载tpu-mlir

参考 tpu-mlir 环境初始化 ,进入x86主机的Docker环境,并通过pip命令安装tpu-mlir

5.1.2.2. 准备工作目录

建立 model_yolov5s 目录, 建议与tpu-mlir同级目录;并把模型文件和图片文件都放入 model_yolov5s 目录中。

操作如下:

1$ mkdir model_yolov5s && cd model_yolov5s
2$ wget https://github.com/ultralytics/yolov5/releases/download/v6.0/yolov5s.onnx
3$ cp -rf $TPUC_ROOT/regression/dataset/COCO2017 .
4$ cp -rf $TPUC_ROOT/regression/image .
5$ mkdir workspace && cd workspace

这里的 $TPUC_ROOT 是环境变量, 对应tpu-mlir_xxxx目录。

5.1.2.3. ONNX转MLIR

如果模型是图片输入, 在转模型之前我们需要了解模型的预处理。如果模型用预处理后的npz文件做输入, 则不需要考虑预处理。 预处理过程用公式表达如下( \(x\) 代表输入):

\[y = (x - mean) \times scale\]

官网yolov5的图片是rgb, 每个值会乘以 1/255 , 转换成mean和scale对应为 0.0,0.0,0.00.0039216,0.0039216,0.0039216

模型转换命令如下:

$ model_transform.py \
    --model_name yolov5s \
    --model_def ../yolov5s.onnx \
    --input_shapes [[1,3,640,640]] \
    --mean 0.0,0.0,0.0 \
    --scale 0.0039216,0.0039216,0.0039216 \
    --keep_aspect_ratio \
    --pixel_format rgb \
    --output_names 350,498,646 \
    --test_input ../image/dog.jpg \
    --test_result yolov5s_top_outputs.npz \
    --mlir yolov5s.mlir

model_transform.py 主要参数说明如下(完整介绍请参见TPU-MLIR开发参考手册用户界面章节):

表 5.1 model_transform 参数功能

参数名

必选?

说明

model_name

指定模型名称

model_def

指定模型定义文件, 比如`.onnx`或`.tflite`或`.prototxt`文件

input_shapes

指定输入的shape, 例如[[1,3,640,640]]; 二维数组, 可以支持多输入情况

input_types

指定输入的类型, 例如int32; 多输入用,隔开; 不指定情况下默认处理为float32

resize_dims

原始图片需要resize之后的尺寸; 如果不指定, 则resize成模型的输入尺寸

keep_aspect_ratio

在Resize时是否保持长宽比, 默认为false; 设置时会对不足部分补0

mean

图像每个通道的均值, 默认为0.0,0.0,0.0

scale

图片每个通道的比值, 默认为1.0,1.0,1.0

pixel_format

图片类型, 可以是rgb、bgr、gray、rgbd四种情况, 默认为bgr

channel_format

通道类型, 对于图片输入可以是nhwc或nchw, 非图片输入则为none, 默认为nchw

output_names

指定输出的名称, 如果不指定, 则用模型的输出; 指定后用该指定名称做输出

test_input

指定输入文件用于验证, 可以是图片或npy或npz; 可以不指定, 则不会正确性验证

test_result

指定验证后的输出文件

excepts

指定需要排除验证的网络层的名称, 多个用,隔开

mlir

指定输出的mlir文件名称和路径

转成mlir文件后, 会生成一个 ${model_name}_in_f32.npz 文件, 该文件是模型的输入文件。

将mlir文件转换成f32的bmodel, 操作方法如下:

 #bm1688
$ model_deploy.py \
     --mlir yolov5s.mlir \
     --quantize F32 \
     --processor bm1688 \
     --test_input yolov5s_in_f32.npz \
     --test_reference yolov5s_top_outputs.npz \
     --tolerance 0.99,0.99 \
     --num_core 2 \
     --model yolov5s_1688_f32_2core.bmodel

 #cv186ah
$ model_deploy.py \
     --mlir yolov5s.mlir \
     --quantize F32 \
     --processor cv186x \
     --test_input yolov5s_in_f32.npz \
     --test_reference yolov5s_top_outputs.npz \
     --tolerance 0.99,0.99 \
     --model yolov5s_cv186x_f32.bmodel

model_deploy.py 的主要参数说明如下(完整介绍请参见TPU-MLIR开发参考手册用户界面章节):

表 5.2 model_deploy 参数功能

参数名

必选?

说明

mlir

指定mlir文件

quantize

指定默认量化类型, 支持F32/F16/BF16/INT8

processor

指定模型将要用到的平台, 支持bm1684x/bm1684/bm1688/cv183x/cv182x/cv181x/cv180x/cv186x

calibration_table

指定校准表路径, 当存在INT8量化的时候需要校准表

tolerance

表示 MLIR 量化后的结果与 MLIR fp32推理结果相似度的误差容忍度

test_input

指定输入文件用于验证, 可以是图片或npy或npz; 可以不指定, 则不会正确性验证

test_reference

用于验证模型正确性的参考数据(使用npz格式)。其为各算子的计算结果

compare_all

验证正确性时是否比较所有中间结果, 默认不比较中间结果

excepts

指定需要排除验证的网络层的名称, 多个用,隔开

num_core

仅支持BM1688,选择并行计算的核心数量, 默认设置为 1 个计算核心

model

指定输出的model文件名称和路径

仅BM1688 支持 num_core 选项,用于指定生成适用于BM1688双核高性能模型。

编译完成后, 会生成名为 yolov5s_1688_f32_2core.bmodel 或者 yolov5s_cv186x_f32.bmodel 的文件。

如果想要生成float16的模型,则 仅需要在model_deploy.py的时候指定quantize为F16 ,其余步骤相同。