BM1684 BMNNSDK2 用户手册
Last updated
Last updated
版权所有 © 2019 北京比特大陆科技有限公司,未经比特大陆事先书面许可,不得以任何形式或方式复制、传播本文档的任何内容。 如需获取更多信息,请浏览比特大陆官方网站 www.sophon.ai。
BMNNSDK2是比特大陆自主研发的原创深度学习开发工具包,未经比特大陆事先书面授权,其它第三方公司或个人不得以任何形式或方式复制、发布和传播。
在使用过程中,如有关于BMNNSDK2的任何问题或者意见和建议,请发邮件至bmai@bitmain.com。
版本
发布时间
说明
v2.0.1
2019/11/16
术语
说明
BM1684
比特大陆面向深度学习领域推出的第三代张量处理器
TPU
BM1684芯片中的神经网络运算单元
VPU
BM1684芯片中的解码单元
VPP
BM1684芯片中的图形运算加速单元
BMNNSDK2
比特大陆基于BM1684芯片的原创深度学习开发工具包
PCIE Mode
BM1684的一种工作形态,芯片作为加速设备来进行使用,客户算法运行于x86主机
SoC Mode
BM1684的一种工作形态,芯片本身作为主机独立运行,客户算法可以直接运行其上。
CModel
BM1684软件模拟器,包含于BMNNSDK2中,在不具备 TPU 硬件设备的情况 下,可用于验证 BMNNSDK2编译
BMCompile
面向比特大陆 TPU 处理器研发的深度神经网络的优化编译器,可以将深度学习框架定义的各种深度神经网络转化为 TPU 上运行的指令流。
BMRuntime
TPU推理接口库
BMCV
图形运算硬件加速接口库
BMNetC
面向 Caffe model 的 BMCompiler 前端命令行工具
BMNetT
面向 TensorFlow model 的 BMCompiler 前端命令行工具
BMNetM
面向 MxNet model 的 BMCompiler 前端命令行工具
BMNetP
面向 PyTorch model 的 BMCompiler 前端命令行工具
BMNetU
INT8量化模型的BMCompiler前端命令行工具
BModel
面向比特大陆TPU处理器的深度神经网络模型文件格式,其中包含目标网络的权重(weight)、TPU指令流等等。