你将收获

如何导出pytorch模型到onnx模型

如何用C++部署onnx模型

如何加速onnx模型部署

适用人群

算法人员, 深度学习开发人员,人工智能开发人员

课程介绍

介绍如何创建优化Pytorch/onnx C++部署框架,如果用英伟达的显卡加速(CUDA/TensorRT)模型的推理,如何在产品中应用。在此课程中会定义统一的借口,可以加载各种onnx模型,最主要的是如何在部署的时候避坑。

课程讨论

老师,window用那个命令编译各种出错。。。

老师,在build的过程中,它提示说,Failed to resolve executable path for 'cmake'

老师,我window下build.bat出错了。提示build.py: error: unrecognized arguments: Files\NVIDA GPU Computing Toolkit\CUDA\v10.2' Files\NVIDA GPU Computing Toolkit\CUDA\v10.2'

老师,基于你这个项目,我想开发一个离线程序方便吗?!麻烦了

老师,编译onnx的时候,tensorrt版本是多少? 好像TensorRT-7.0.0.11 不好编译

老师,支持trt的onnxruntime,是不是模型只要转换成onnx,不要转成trt,也可以用trt加速啊 ?

非常不错的课程,期待老师的持续更新,也会推荐给身边朋友的