Skip to content

Latest commit

 

History

History
51 lines (38 loc) · 2.05 KB

File metadata and controls

51 lines (38 loc) · 2.05 KB

PPYOLOE TensorRT Benchmark测试(Linux)

环境准备

  • CUDA、CUDNN:确认环境中已经安装CUDA和CUDNN,并且提前获取其安装路径。

  • TensorRT:可通过NVIDIA官网下载TensorRT 8.4.1.5或其他版本安装包。

  • Paddle Inference C++预测库:编译develop版本请参考编译文档。编译完成后,会在build目录下生成paddle_inference_install_dir文件夹,这个就是我们需要的C++预测库文件。

编译可执行程序

  • (1)修改compile.sh中依赖库路径,主要是以下内容:
# Paddle Inference预测库路径
LIB_DIR=/root/auto_compress/Paddle/build/paddle_inference_install_dir/
# CUDNN路径
CUDNN_LIB=/usr/lib/x86_64-linux-gnu/
# CUDA路径
CUDA_LIB=/usr/local/cuda/lib64
# TensorRT安装包路径,为TRT资源包解压完成后的绝对路径,其中包含`lib`和`include`文件夹
TENSORRT_ROOT=/root/auto_compress/trt/trt8.4/

测试

  • FP32
./build/trt_run --model_file ppyoloe_crn_s_300e_coco/model.pdmodel --params_file ppyoloe_crn_s_300e_coco/model.pdiparams --run_mode=trt_fp32
  • FP16
./build/trt_run --model_file ppyoloe_crn_s_300e_coco/model.pdmodel --params_file ppyoloe_crn_s_300e_coco/model.pdiparams --run_mode=trt_fp16
  • INT8
./build/trt_run --model_file ppyoloe_s_quant/model.pdmodel --params_file ppyoloe_s_quant/model.pdiparams --run_mode=trt_int8

性能对比

预测库 模型 预测时延FP32
(ms)
预测时延FP16
(ms)
预测时延INT8
(ms)
Paddle TensorRT PPYOLOE-s 6.51ms 2.77ms 2.12ms
TensorRT PPYOLOE-s 6.61ms 2.90ms 2.31ms

环境:

  • Tesla T4,TensorRT 8.4.1,CUDA 11.2
  • batch_size=1