目录:
本示例将以ultralytics/yolov5,meituan/YOLOv6 和 WongKinYiu/yolov7 YOLO系列目标检测模型为例,将PyTorch框架产出的推理模型转换为Paddle推理模型,使用离线量化功能进行压缩,并使用敏感度分析功能提升离线量化精度。离线量化产出的模型可以用PaddleInference部署,也可以导出为ONNX格式模型文件,并用TensorRT部署。
模型 | 策略 | 输入尺寸 | mAPval 0.5:0.95 |
预测时延FP32 (ms) |
预测时延FP16 (ms) |
预测时延INT8 (ms) |
配置文件 | Inference模型 |
---|---|---|---|---|---|---|---|---|
YOLOv5s | Base模型 | 640*640 | 37.4 | 5.95ms | 2.44ms | - | - | Model |
YOLOv5s | KL离线量化 | 640*640 | 36.0 | - | - | 1.87ms | - | - |
YOLOv6s | Base模型 | 640*640 | 42.4 | 9.06ms | 2.90ms | - | - | Model |
YOLOv6s | KL离线量化(量化分析前) | 640*640 | 30.3 | - | - | 1.83ms | - | - |
YOLOv6s | KL离线量化(量化分析后) | 640*640 | 39.7 | - | - | - | - | Infer Model |
YOLOv6s | avg离线量化 | 640*640 | 33.8 | - | - | 1.83ms | - | - |
YOLOv6s | avg离线量化(+Adaround) | 640*640 | 39.2 | - | - | - | - | - |
YOLOv6s | avg离线量化(+BRECQ) | 640*640 | 38.7 | - | - | - | - | - |
YOLOv6s | avg离线量化(+QDrop) | 640*640 | 38.0 | - | - | - | - | - |
YOLOv7 | Base模型 | 640*640 | 51.1 | 26.84ms | 7.44ms | - | - | Model |
YOLOv7 | KL离线量化 | 640*640 | 50.2 | - | - | 4.55ms | - | - |
说明:
- mAP的指标均在COCO val2017数据集中评测得到。
- PaddlePaddle >= 2.3 (可从Paddle官网下载安装)
- PaddleSlim > 2.3版本
- X2Paddle >= 1.3.9
- opencv-python
(1)安装paddlepaddle:
# CPU
pip install paddlepaddle
# GPU
pip install paddlepaddle-gpu
(2)安装paddleslim:
pip install paddleslim
本示例默认以COCO数据进行自动压缩实验,可以从 MS COCO官网 下载 Train、Val、annotation。
目录格式如下:
dataset/coco/
├── annotations
│ ├── instances_train2017.json
│ ├── instances_val2017.json
│ | ...
├── train2017
│ ├── 000000000009.jpg
│ ├── 000000580008.jpg
│ | ...
├── val2017
│ ├── 000000000139.jpg
│ ├── 000000000285.jpg
(1)准备ONNX模型:
-
YOLOv5:可通过ultralytics/yolov5 官方的导出教程来准备ONNX模型,也可以下载准备好的yolov5s.onnx。
-
YOLOv6:可通过meituan/YOLOv6官方的导出教程来准备ONNX模型,也可以下载已经准备好的yolov6s.onnx。
-
YOLOv7:可通过WongKinYiu/yolov7的导出脚本来准备ONNX模型,也可以直接下载我们已经准备好的yolov7.onnx。
离线量化示例通过post_quant.py脚本启动,会使用接口paddleslim.quant.quant_post_static
对模型进行量化。配置config文件中模型路径、数据路径和量化相关的参数,配置完成后便可对模型进行离线量化。具体运行命令为:
- YOLOv5
python post_quant.py --config_path=./configs/yolov5s_ptq.yaml --save_dir=./yolov5s_ptq_out
- YOLOv6
python post_quant.py --config_path=./configs/yolov6s_ptq.yaml --save_dir=./yolov6s_ptq_out
- YOLOv7
python post_quant.py --config_path=./configs/yolov7s_ptq.yaml --save_dir=./yolov7s_ptq_out
修改 yolov5s_ptq.yaml 中model_dir
字段为模型存储路径,然后使用eval.py脚本得到模型的mAP:
export CUDA_VISIBLE_DEVICES=0
python eval.py --config_path=./configs/yolov5s_ptq.yaml
本节介绍如何使用量化分析工具提升离线量化精度。离线量化功能仅需使用少量数据,且使用简单、能快速得到量化模型,但往往会造成较大的精度损失。PaddleSlim提供量化分析工具,会使用接口paddleslim.quant.AnalysisQuant
,可视化展示出不适合量化的层,通过跳过这些层,提高离线量化模型精度。paddleslim.quant.AnalysisQuant
详解见AnalysisQuant.md。
由于YOLOv6离线量化效果较差,以YOLOv6为例,量化分析工具具体使用方法如下:
python analysis.py --config_path=./configs/yolov6s_analysis.yaml
如下图,经过量化分析之后,可以发现conv2d_2.w_0
, conv2d_11.w_0
,conv2d_15.w_0
, conv2d_46.w_0
, conv2d_49.w_0
这些层会导致较大的精度损失。
对比权重直方分布图后,可以发现量化损失较小的层数值分布相对平稳,数值处于-0.25到0.25之间,而量化损失较大的层数值分布非常极端,绝大部分值趋近于0,且数值处于-0.1到0.1之间,尽管看上去都是正太分布,但大量值为0是不利于量化统计scale值的。
经此分析,在进行离线量化时,可以跳过这些导致精度下降较多的层,可使用 yolov6s_analyzed_ptq.yaml,然后再次进行离线量化。跳过这些层后,离线量化精度上升9.4个点。
python post_quant.py --config_path=./configs/yolov6s_analyzed_ptq.yaml --save_dir=./yolov6s_analyzed_ptq_out
如想分析之后直接产出符合目标精度的量化模型,可在 yolov6s_analysis.yaml
中将get_target_quant_model
设置为True,并填写 target_metric
,注意 target_metric
不能比原模型精度高。
加速分析过程
使用量化分析工具时,因需要逐层量化模型并进行验证,因此过程可能较慢,若想加速分析过程,可以在配置文件中设置 fast_val_anno_path
,输入一个图片数量较少的annotation文件路径。注意,用少量数据验证的模型精度不一定等于全量数据验证的模型精度,若只需分析时获得不同层量化效果的相对排序,可以使用少量数据集;若要求准确精度,请使用全量验证数据集。如需要全量验证数据,将 fast_val_anno_path
设置为None即可。
若需要少量验证数据集来快速验证,可下载:单张COCO验证数据集。
注:分析之后若需要直接产出符合目标精度的量化模型,demo代码不会使用少量数据集验证,会自动使用全量验证数据。
量化分析工具详细介绍见量化分析工具介绍
本节介绍如何使用精度重构工具提高精度。该工具的思想是,通过最小化量化前后模型输出的重构误差(minimizing the reconstruction error,MRE),学习权重的取整方式(上取整or下取整),从而fine-tune
经量化后的模型的权重,提高精度。同样以YOLOv6为例,运行命令如下:
python fine_tune.py --config_path=./configs/yolov6s_fine_tune.yaml --recon_level=layer-wise
其中recon_level
表示重构的粒度,默认为layer-wise
,即逐层重构。如下图,该工具首先会统计激活和权重量化需要的scales
,随后为每个权重添加soft-rounding
操作使得权重的取整方式可学习,以及逐层的增加重构loss
。
通过最小化重构loss
,为每层的权重学习最合适的round
方式,其思想类似论文提出的Adround
方法。
该过程也可看成知识蒸馏,预训练模型可视为教师模型,经离线量化后的模型可视为学生模型。
类似的,该工具还支持以region/block
为单位添加重构loss
,类似论文提出的BRECQ
方法,其中region
可能包含多层,如下图所示。
具体运行命令如下:
python fine_tune.py --config_path=./configs/yolov6s_fine_tune.yaml --recon_level=region-wise
此外,该工具还支持在重构过程中引入激活量化产生的噪声,如下图所示,在每层前插入quant/dequant
节点,随机的进行激活量化,核心思想类似论文提出的QDrop
方法。
具体运行命令如下,只需将simulate_activation_quant
设置为True
即可。
python fine_tune.py --config_path=./configs/yolov6s_fine_tune.yaml --simulate_activation_quant=True
实验结果如上表所示,与量化分析工具不同,精度重构工具无需跳过某些层,就可提升离线量化精度。
预测部署可参考YOLO系列模型自动压缩示例
- 如果想对模型进行自动压缩,可进入YOLO系列模型自动压缩示例中进行实验。