TPU-MLIR快速入门手册
法律声明
版权所有 © 算能 2024. 保留一切权利。
非经本公司书面许可, 任何单位和个人不得擅自摘抄、复制本文档内容的部分或全部, 并不得以任何形式传播。
注意
您购买的产品、服务或特性等应受 算能 商业合同和条款的约束,
本文档中描述的全部或部分产品、服务或特性可能不在您的购买或使用范围之内。
除非合同另有约定, 算能 对本文档内容不做任何明示或默示的声明或保证。
由于产品版本升级或其他原因, 本文档内容会不定期进行更新。
除非另有约定, 本文档仅作为使用指导, 本文档中的所有陈述、信息和建议不构成任何明示或暗示的担保。
技术支持
- 地址
北京市海淀区丰豪东路9号院中关村集成电路设计园(ICPARK)1号楼
- 邮编
100094
- 网址
- 邮箱
- 电话
+86-10-57590723 +86-10-57590724
发布记录
版本 |
发布日期 |
说明 |
---|---|---|
v1.6.0 |
2024.02.23 |
添加了Pypi发布形式; 支持用户自定义Global算子; 支持了CV186X处理器平台 |
v1.5.0 |
2023.11.03 |
更多Global Layer支持多核并行; |
v1.4.0 |
2023.09.27 |
系统依赖升级到Ubuntu22.04; 支持了BM1684 Winograd |
v1.3.0 |
2023.07.27 |
增加手动指定浮点运算区域功能; 添加支持的前端框架算子列表; 添加NNTC与TPU-MLIR量化方式比较 |
v1.2.0 |
2023.06.14 |
调整了混合量化示例 |
v1.1.0 |
2023.05.26 |
添加使用智能深度学习处理器做后处理 |
v1.0.0 |
2023.04.10 |
支持PyTorch, 增加章节介绍转PyTorch模型 |
v0.8.0 |
2023.02.28 |
添加使用智能深度学习处理器做前处理 |
v0.6.0 |
2022.11.05 |
增加章节介绍混精度操作过程 |
v0.5.0 |
2022.10.20 |
增加指定model-zoo, 测试其中的所有模型 |
v0.4.0 |
2022.09.20 |
支持Caffe, 增加章节介绍转Caffe模型 |
v0.3.0 |
2022.08.24 |
支持TFLite, 增加章节介绍转TFLite模型。 |
v0.2.0 |
2022.08.02 |
增加了运行SDK中的测试样例章节。 |
v0.1.0 |
2022.07.29 |
初版发布, 支持 |
- 1. TPU-MLIR简介
- 2. 开发环境配置
- 3. 编译ONNX模型
- 4. 编译TORCH模型
- 5. 编译Caffe模型
- 6. 编译TFLite模型
- 7. 量化与量化调优
- 8. 使用智能深度学习处理器做前处理
- 9. 使用智能深度学习处理器做后处理
- 10. 附录01:各框架模型转ONNX参考
- 11. 附录02: CV18xx使用指南
- 12. 附录03: BM168x使用指南
- 13. 附录04:Model-zoo测试
- 14. 附录05:TPU Profile工具使用指南
- 15. 附录06:TDB调试工具使用指南
- 16. 附录07:已支持的算子