2. 引言¶
2.1. 术语解释¶
术语 |
说明 |
---|---|
BM168X |
算能面向深度学习领域推出的张量处理器 |
Umodel |
Unified Model,算能自主开发的网络模型格式,用于统一存储各深度学习框架下网络的拓扑结构与系数 |
U-FrameWork |
Unified Framework,算能自主开发的深度学习框架,集成Caffe、TensorFlow、MxNet、PyTorch、Darknet、ONNX、PaddlePaddle各框架的运算功能 |
Calibration-tools |
网络模型的float32系数到int8系数的转换工具 |
Quantization-tools |
Umodel,U-FrameWork,Calibration-tools的统称 |
SOPHON |
算能AI品牌,本文特指AI系列产品的运算平台 |
float32 |
32 bit 浮点数 |
int8 |
8 bit 定点数 |
bmnetu |
针对BM1684的U-FrameWork模型编译器,可将某网络的umodel和 prototxt编译成BMRuntime所需要的文件 |
bmodel |
面向算能TPU处理器的深度神经网络模型文件格式 |
2.2. 授权¶
Quantization-Tools是算能自主研发的具有完全知识产权的深度学习开发工具包,未经算能事先书面授权,其它第三方公司或个人不得以任何形式或方式复制、发布和传播。
2.3. 版本信息¶
本次Quantization-Tools发布版本号为 v2.7.0。
2.4. 版本特性¶
Quantization-Tools主要特性如下:
支持的深度学习框架
支持对Caffe网络模型进行量化
支持对TensorFlow网络模型进行量化
支持对MxNet网络模型进行量化
支持对PyTorch网络模型进行量化
支持对Darknet网络模型进行量化
支持对ONNX网络模型进行量化
支持对PaddlePaddle网络模型进行量化
通过自定义的网络模型格式Umodel,将Caffe、TensorFlow、MxNet、PyTorch、Darknet、ONNX、PaddlePaddle的网络模型进行统一存储
通过自定义深度学习框架U-FrameWork,使量化过程与Caffe、TensorFlow、MxNet、PyTorch、Darknet、ONNX、PaddlePaddle等框架完全分离
2.5. 帮助与支持¶
在使用过程中,如有关于Quantization-Tools的任何问题或建议,请发邮件至sales@sophgo.com。