pytorch 38 对tensorRT、openvino、onnxruntime(fp32、fp16)推理速度进行对比
PyTorch 进行 对比 速度 推理 38 TensorRT
2023-09-14 09:15:04 时间
tensorRT与openvino部署模型有必要么?本博文对tensorRT、openvino、onnxruntime推理速度进行对比,分别在vgg16、resnet50、efficientnet_b1和cspdarknet53四个模型进行进行实验,对于openvino和onnxruntime还进行了cpu下的推理对比。对比囊括了fp32、fp16两种情况。在float32下通过实验得出:openvino GPU < onnxruntime CPU << openvino CPU < onnxruntime GPU <= tensorRT GPU。
得出结论:
1、在cpu上因该使用openvino部署,加速效果明显。
2、在gpu上可以适当考虑tensorRT部署,有一定加速效果(对于计算密集的模型加速效果明显);
在fp16下测试,情况与fp32差异较大。速度排序为: onnxruntime CPU < openvino CPU <= openvino GPU < onnxruntime GPU < tensorR GPU。
可以看出在fp16下,onnxruntime完全没有加速效果;openvino有轻微加速效果,比onnxruntime CPU要强;而tensorRT加速效果明显,相比于float32速度提升了1/3~2/5。
并进行显存占用对比实验,实验数据如下,
fp32下vgg占用590M,resnet50占用162M,efficientnet_b1占用130M,cspdarknet53占用238M;
fp16下vgg占用374M,resnet50占用92M,efficientnet_b1占用68M,cspdarknet53占用156M
相关文章
- 从零开始学Pytorch(七)之卷积神经网络基础
- 从零开始学Pytorch(十八)之kaggle图像分类
- 使用onnx对pytorch模型进行部署
- 【愚公系列】2022年09月 python人工智能-PyTorch环境配置及安装
- PyTorch 中的数据类型 torch.utils.data.DataLoader
- pytorch BatchNorm参数详解,计算过程
- 简析LSTM()函数的输入参数和输出结果(pytorch)
- PyTorch—torchvision.models导入预训练模型—残差网络代码讲解
- NLP学习之使用pytorch搭建textCNN模型进行中文文本分类
- conda安装pytorch的镜像源问题
- 安装Pytorch与使用Jupyter小结
- Pytorch中的Sequential
- Pytorch的基本介绍及模型训练流程
- Pycharm和Pytorch安装教程配置环境以及遇到的问题:
- 睿智的目标检测26——Pytorch搭建yolo3目标检测平台[通俗易懂]
- Pytorch、CUDA和cuDNN的安装图文详解win11(解决版本匹配问题)
- 使用PyTorch进行小样本学习的图像分类
- 使用Pytorch手写ViT — VisionTransformer
- RepVGG论文详解以及使用Pytorch进行模型复现
- PyTorch: 计算图与动态图机制
- 搭建深度学习环境(Pytorch)
- Python中用PyTorch机器学习神经网络分类预测银行客户流失模型|附代码数据
- PyTorch-24h 05_模块化
- 使用PyTorch-LSTM进行单变量时间序列预测的示例教程
- 有bug!用Pytorch Lightning重构代码速度更慢,修复后速度倍增