首先请参考文档环境准备配置运行环境。
首先请参考文档模型导出准备 inference 模型,然后进入 PaddleClas 的 deploy
目录下:
cd PaddleClas/deploy
使用以下命令进行预测:
python3.7 python/predict_cls.py -c configs/inference_cls.yaml
在配置文件 configs/inference_cls.yaml
中有以下字段用于配置预测参数:
Global.infer_imgs
:待预测的图片文件(夹)路径;Global.inference_model_dir
:inference 模型文件所在文件夹的路径,该文件夹下需要有文件inference.pdmodel
和inference.pdiparams
两个文件;Global.use_gpu
:是否使用 GPU 预测,默认为True
;Global.enable_mkldnn
:是否启用MKL-DNN
加速库,默认为False
。注意enable_mkldnn
与use_gpu
同时为True
时,将忽略enable_mkldnn
,而使用 GPU 预测;Global.use_fp16
:是否启用FP16
,默认为False
;Global.use_tensorrt
:是否使用 TesorRT 预测引擎,默认为False
;PreProcess
:用于数据预处理配置;PostProcess
:由于后处理配置;PostProcess.Topk.class_id_map_file
:数据集 label 的映射文件,默认为../ppcls/utils/imagenet1k_label_list.txt
,该文件为 PaddleClas 所使用的 ImageNet 数据集 label 映射文件。
注意:
- 如果使用 VisionTransformer 系列模型,如
DeiT_***_384
,ViT_***_384
等,请注意模型的输入数据尺寸,该类模型需要修改参数:PreProcess.resize_short=384
,PreProcess.resize=384
。 - 如果你希望提升评测模型速度,使用 GPU 评测时,建议开启 TensorRT 加速预测,使用 CPU 评测时,建议开启 MKL-DNN 加速预测。