TPU-MLIR开发参考手册
法律声明
版权所有 © 算能 2024. 保留一切权利。
非经本公司书面许可, 任何单位和个人不得擅自摘抄、复制本文档内容的部分或全部, 并不得以任何形式传播。
注意
您购买的产品、服务或特性等应受 算能 商业合同和条款的约束,
本文档中描述的全部或部分产品、服务或特性可能不在您的购买或使用范围之内。
除非合同另有约定, 算能 对本文档内容不做任何明示或默示的声明或保证。
由于产品版本升级或其他原因, 本文档内容会不定期进行更新。
除非另有约定, 本文档仅作为使用指导, 本文档中的所有陈述、信息和建议不构成任何明示或暗示的担保。
技术支持
- 地址
北京市海淀区丰豪东路9号院中关村集成电路设计园(ICPARK)1号楼
- 邮编
100094
- 网址
- 邮箱
- 电话
- +86-10-57590723
+86-10-57590724
发布记录
版本 |
发布日期 |
说明 |
---|---|---|
v0.6.0 |
2022.11.05 |
增加章节介绍混精度操作过程 |
v0.5.0 |
2022.10.20 |
增加指定model-zoo, 测试其中的所有模型 |
v0.4.0 |
2022.09.20 |
支持Caffe, 增加章节介绍转Caffe模型 |
v0.3.0 |
2022.08.24 |
支持TFLite, 增加章节介绍转TFLite模型。 |
v0.2.0 |
2022.08.02 |
增加了运行SDK中的测试样例章节。 |
v0.1.0 |
2022.07.29 |
初版发布, 支持 |
- 1. TPU-MLIR简介
- 2. 开发环境配置
- 3. 用户界面
- 4. 整体设计
- 5. 前端转换
- 6. 量化
- 7. Calibration
- 8. Lowering
- 9. SubNet
- 10. LayerGroup
- 11. GMEM分配
- 12. CodeGen
- 13. MLIR定义
- 14. 精度验证
- 15. QAT量化感知训练
- 16. TpuLang接口
- 17. 用户自定义算子
- 18. 附录01:从 NNTC 迁移至 TPU-MLIR
- 19. 附录02:TpuLang的基本元素
- 19.1. 张量(Tensor)
- 19.2. 张量前处理(Tensor.preprocess)
- 19.3. 标量(Scalar)
- 19.4. Control Functions
- 19.5. Operator
- 19.5.1. NN/Matrix Operator
- 19.5.2. Base Element-wise Operator
- 19.5.3. Element-wise Compare Operator
- 19.5.4. Activation Operator
- 19.5.5. Data Arrange Operator
- 19.5.6. Sort Operator
- 19.5.7. Shape About Operator
- 19.5.8. Quant Operator
- 19.5.9. Up/Down Scaling Operator
- 19.5.10. Normalization Operator
- 19.5.11. Vision Operator
- 19.5.12. Select Operator