c# onnx模型部署:TensorRT、OpenVino、ONNXRuntime、OpenCV dnn

无论用什么框架训练的模型,推荐转为onnx格式,方便部署。

支持onnx模型的框架如下:

  • TensorRT:英伟达的,用于GPU推理加速。注意需要英伟达GPU硬件的支持。
  • OpenVino:英特尔的,用于CPU推理加速。注意需要英特尔CPU硬件的支持。
  • ONNXRuntime:微软,亚马逊 ,Facebook 和 IBM 等公司共同开发的,可用于GPU、CPU
  • OpenCV dnn:OpenCV的调用模型的模块

pt格式的模型,可以用Pytorch框架部署。

推理效率上:TensorRT>OpenVino>ONNXRuntime>OpenCV dnn>Pytorch

由于电脑只有CPU,因此研究下OpenVino、ONNXRuntime、OpenCV dnn的C++使用。

https://blog.csdn.net/grape_yan/article/details/130241872

 

部署TensorRT可参考:

https://blog.csdn.net/Grape_yan/article/details/127320959

https://blog.csdn.net/grape_yan/article/details/130241872

posted on 2024-09-02 10:06  NLazyo  阅读(1081)  评论(0)    收藏  举报