2. 引言
2.1. 术语解释
术语 |
说明 |
BM1688/CV186AH |
算能科技面向深度学习领域推出的两款第五代张量处理器 |
BM1684X |
算能科技面向深度学习领域推出的第四代张量处理器 |
BM1684 |
算能科技面向深度学习领域推出的第三代张量处理器 |
智能视觉深度学习处理器 |
BM1688/CV186AH/BM1684/BM1684X中的神经网络运算单元 |
VPSS |
BM1688/CV186AH中的视频处理子系统,包括图形运算加速单元以及解码单元 |
VPU |
BM1684/BM1684X中的解码单元 |
VPP |
BM1684/BM1684X中的图形运算加速单元 |
JPU |
BM1688/CV186AH/BM1684/BM1684X中的图像JPEG编解码单元 |
SOPHONSDK |
算能科技基于BM1688/CV186AH/BM1684/BM1684X的原创深度学习开发工具包 |
PCIe Mode |
BM1684/BM1684X的一种工作形态,作为加速设备来进行使用,客户算法运行于x86主机 |
SoC Mode |
BM1688/CV186AH/BM1684/BM1684X的一种工作形态,本身作为主机独立运行,客户算法可以直接运行其上 |
arm_pcie Mode |
BM1684/BM1684X的一种工作形态,搭载BM1684/BM1684X的板卡作为PCIe从设备插到ARM处理器的服务器上,客户算法运行于ARM处理器的主机上 |
BMCompiler |
面向智能视觉深度学习处理器研发的深度神经网络的优化编译器,可以将深度学习框架的各种深度神经网络转化为处理器上运行的指令流 |
BMRuntime |
智能视觉深度学习处理器推理接口库 |
BMCV |
图形运算硬件加速接口库 |
BMLib |
在内核驱动之上封装的一层底层软件库,设备管理、内存管理、数据搬运、API发送、A53使能、功耗控制 |
mlir |
由TPU-MLIR生成的中间模型格式,用于迁移或者量化模型 |
BModel |
面向智能视觉深度学习处理器的深度神经网络模型文件格式,其中包含目标网络的权重(weight)、指令流等 |
BMLang |
面向智能视觉深度学习处理器的高级编程模型,用户开发时无需了解底层硬件信息 |
TPUKernel |
基于智能视觉深度学习处理器原子操作(根据BM1688/CV186AH/BM1684/BM1684X指令集封装的一套接口)的开发库。 |
SAIL |
支持Python/C++接口的SOPHON Inference推理库,是对BMCV、sophon-media、 BMLib、BMRuntime等的进一步封装 |
TPU-MLIR |
智能视觉深度学习处理器编译器工程,可以将不同框架下预训练的神经网络,转化为可以在算能智能视觉深度学习处理器上高效运算的bmodel |
2.2. 注意事项
推荐使用cmake中的find_package查找libsophon和sophon-media的库包,并进行链接。
SoC模式下,SDK动态库文件位于/opt/sophon/目录下。
SoC模式下,通过开机时的systemd服务,自动加载/opt/sophon/libsophon-current/data下的ko内核模块。如用户定义的自启动服务,并且依赖BM168X,请确保在ko加载后启动。
2.3. 授权
BM1688/CV186AH SOPHONSDK是算能科技自主研发的原创深度学习开发工具包,未经算能科技事先书面授权,其它第三方公司或个人不得以任何形式或方式复制、发布和传播。
2.4. 帮助与支持
在使用过程中,如有关于BM1688/CV186AH SOPHONSDK的任何问题或者意见和建议,请联系相关技术支持。