MagicMind 是面向寒武纪 MLU 的推理加速引擎。MagicMind 能将 AI 框架(Tensorflow,PyTorch,ONNX 等) 训练好的算法模型转换成 MagicMind 统一计算图表示,并提供端到端的模型优化、代码生成以及推理业务部署能力。 本 sample 探讨如何将 xception41 网络的 paddle 模型转换为 MagicMind 模型,进而部署在寒武纪 MLU 板卡上。
本例使用的 paddle 实现来自 github 开源项目https://github.com/PaddlePaddle/PaddleClas 。 下面将展示如何将该项目中 paddle 实现的 xception41 模型转换为 MagicMind 的模型。
请移至主页面 README.md的2.前提条件
请移至主页面 README.md的3.环境准备
# 下载仓库
git clone 本仓库
cd magicmind_cloud/buildin/cv/classification/xception_paddle
在开始运行代码前需要执行以下命令安装必要的库:
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple/ -f https://download.pytorch.org/whl/torch_stable.html
在开始运行代码前需要先检查 env.sh 里的环境变量,并且执行以下命令:
source env.sh
- 下载数据集和模型
cd $PROJ_ROOT_PATH/export_model
bash run.sh
cd $PROJ_ROOT_PATH/gen_model
#bash run.sh <magicmind_model> <precision> <batch_size> <dynamic_shape>
bash run.sh ${MODEL_PATH}/xception_paddle_model_force_float32_true force_float32 1 true
cd $PROJ_ROOT_PATH/infer_python
#bash run.sh <magicmind_model> <batch_size> <image_num>
bash run.sh ${MODEL_PATH}/xception_paddle_model_force_float32_true 1 1000
结果:
top1: 0.748
top5: 0.928
以上 3.3~3.5 的步骤也可以通过运行 cd magicmind_cloud/buildin/cv/classification/xception_paddle && bash run.sh 来实现一键执行
ONNX xception41 模型转换为 MagicMind xception41 模型分成以下几步:
- 使用 MagicMind Parser 模块将 onnx 文件解析为 MagicMind 网络结构。
- 模型量化。
- 使用 MagicMind Builder 模块生成 MagicMind 模型实例并保存为离线模型文件。
注意: 在gen_model内使用了一些公共的组件,例如arg解析、第三方框架(如PyTorch)模型解析、MagicMind 配置设定等,这些公共组件的说明详见:公共组件的README.md
概述: 本例使用 MagicMind PYTHON API 编写了名为 infer_python 的目标检测程序。infer_python 将展示如何使用 MagicMind PYTHON API 构建高效的 xception41 图像分类(图像预处理=>推理=>后处理)。
参数说明:
device_id
: 设备号。magicmind_model
: MagicMind 模型路径。image_dir
: 输入图像目录,程序对该目录下所有后缀为 jpg 的图片执行分类任务。image_num
: 输入图像的数量。name_file
: imagenet 名称文件路径。label_file
: 标签文件路径。result_file
: 输入图像。result_label_file
: 输出 label 文件。result_top1_file
: top1 文件result_top5_file
: top5 文件batch_size
: 生成可变模型时 batch_size 可以在 dimension range 内取值,生成不可变模型时 batch_size 的取值需要对应 onnx 的输入维度。
本仓库通过寒武纪提供的 Magicmind 性能测试工具 mm_run 展示性能数据
#查看参数说明
mm_run --h
mm_run --magicmind_model $MM_MODEL --devices $DEV_ID --threads 1 --iterations 1000
或者通过一键运行 benchmark 里的脚本:
cd ${PROJ_ROOT_PATH}/benchmark
bash perf.sh
一键运行 benchmark 里的脚本跑出 xception41 在 IMAGENET2012 数据集上的 TOP1 和 TOP5 如下:
cd ${PROJ_ROOT_PATH}/benchmark
bash eval.sh
Model | Precision | Batch_Size | TOP1 | TOP5 |
---|---|---|---|---|
Xception41 | force_float32 | 1 | 0.79306 | 0.94536 |
Xception41 | force_float16 | 1 | 0.79312 | 0.94530 |
Xception41 | qint8_mixed_float16 | 1 | 0.79134 | 0.94434 |
xception41 magicmind模型测试参数设置与PaddleClas保持一致如下:
# config file: PaddleClas/ppcls/configs/ImageNet/Xception/Xception41.yaml
# line74 - line91
Eval:
dataset:
name: ImageNetDataset
image_root: ./dataset/ILSVRC2012/
cls_label_path: ./dataset/ILSVRC2012/val_list.txt
transform_ops:
- DecodeImage:
to_rgb: True
channel_first: False
- ResizeImage:
resize_short: 320
- CropImage:
size: 299
- NormalizeImage:
scale: 1.0/255.0
mean: [0.485, 0.456, 0.406]
std: [0.229, 0.224, 0.225]
order: ''
您明确了解并同意,以下链接中的软件、数据或者模型由第三方提供并负责维护。在以下链接中出现的任何第三方的名称、商标、标识、产品或服务并不构成明示或暗示与该第三方或其软件、数据或模型的相关背书、担保或推荐行为。您进一步了解并同意,使用任何第三方软件、数据或者模型,包括您提供的任何信息或个人数据(不论是有意或无意地),应受相关使用条款、许可协议、隐私政策或其他此类协议的约束。因此,使用链接中的软件、数据或者模型可能导致的所有风险将由您自行承担。
- xception41 paddle 模型:https://github.com/PaddlePaddle/PaddleClas/blob/release/2.3/ppcls/arch/backbone/model_zoo/xception.py
- xception41 paddle 模型下载链接: https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/Xception41_infer.tar
- LSVRC_2012 验证集链接: https://image-net.org/challenges/LSVRC