-
CUDA、CUDNN:确认环境中已经安装CUDA和CUDNN,并且提前获取其安装路径。
-
TensorRT:可通过NVIDIA官网下载TensorRT 8.4.1.5或其他版本安装包。
-
Paddle Inference C++预测库:编译develop版本请参考编译文档。编译完成后,会在build目录下生成
paddle_inference_install_dir
文件夹,这个就是我们需要的C++预测库文件。
- (1)修改
compile.sh
中依赖库路径,主要是以下内容:
# Paddle Inference预测库路径
LIB_DIR=/root/auto_compress/Paddle/build/paddle_inference_install_dir/
# CUDNN路径
CUDNN_LIB=/usr/lib/x86_64-linux-gnu/
# CUDA路径
CUDA_LIB=/usr/local/cuda/lib64
# TensorRT安装包路径,为TRT资源包解压完成后的绝对路径,其中包含`lib`和`include`文件夹
TENSORRT_ROOT=/root/auto_compress/trt/trt8.4/
- FP32
./build/trt_run --model_file ppyoloe_crn_s_300e_coco/model.pdmodel --params_file ppyoloe_crn_s_300e_coco/model.pdiparams --run_mode=trt_fp32
- FP16
./build/trt_run --model_file ppyoloe_crn_s_300e_coco/model.pdmodel --params_file ppyoloe_crn_s_300e_coco/model.pdiparams --run_mode=trt_fp16
- INT8
./build/trt_run --model_file ppyoloe_s_quant/model.pdmodel --params_file ppyoloe_s_quant/model.pdiparams --run_mode=trt_int8
预测库 | 模型 | 预测时延FP32 (ms) |
预测时延FP16 (ms) |
预测时延INT8 (ms) |
---|---|---|---|---|
Paddle TensorRT | PPYOLOE-s | 6.51ms | 2.77ms | 2.12ms |
TensorRT | PPYOLOE-s | 6.61ms | 2.90ms | 2.31ms |
环境:
- Tesla T4,TensorRT 8.4.1,CUDA 11.2
- batch_size=1