评估模型兼容性
本指南介绍如何将您训练好的模型(支持的格式之一)在 Astra™ SR100 MCU 上评估其兼容性。 无需实际 SR 芯片,即可在 SR100 NPU 上评估开源 AI 模型:
此工作流程可在部署到 Astra Machina Micro 开发板前,实现快速原型设计和验证,节省开发时间,并支持模型迭代优化。
导入任意模型
您可以使用以下任意格式的训练模型并转换为 TFLite 模型。请参考相关文档进行转换:
这些指南提供了将模型转换和量化为 SR100 部署的最新可靠方法。
转换为 TFLite INT8 量化模型
量化是一种将模型权重和激活从浮点数转换为整数(如 INT8),使模型更小更快的过程。量化需要一个代表性数据集,该数据集应与模型实际应用场景中的数据相似。量化过程会利用这些数据校准模型,以保持准确性。
获得 TFLite 模型和代表性数据集后,可参考 TFLite 量化指南 将模型转换为 INT8 量化版本。
获得 TFLite INT8 量化模型后,可使用 Hugging Face 上托管的 SR100 模型编译器进行编译,或如下所示:
SR100 模型编译器空间 🤗
您可以直接使用我们的 Hugging Face SR100 模型编译器空间:
该空间使用仿真工具链,无需实际 SR 芯片即可估算模型性能,结果高度贴近真实硬件表现。
如遇错误:404 Sorry, we can’t find the page you are looking for ,请在 HuggingFace 重新启动该空间:SR100 模型编译器空间 →
参考资料
部署到真实硬件
在 Astra SR 系列上评估并编译好模型后,下一步即可部署到真实硬件。
申请 Machina™ Micro 开发套件:
申请 Astra SR100 MCU 开发套件,亲身体验。通过开发板可在真实场景下验证模型、进一步优化,加速边缘 AI 部署。➡ 申请 Machina™ Micro 开发套件
同时,欢迎通过我们的 🤗 Space 查看 Synaptics 针对 SR100 系列 MCU 预优化视觉模型的性能: