你将收获

掌握Triton推理服务器上部署YOLOv8的方法

学习Triton推理服务器部署原理

学习Triton推理服务器上使用onnxruntime后端部署YOLOv8

学习Triton推理服务器上使用TensorRT后端部署YOLOv8

适用人群

希望学习Triton推理服务器上部署YOLOv8部署方法的学员

课程介绍

Triton Inference Server(Triton 推理服务器)是一个高性能、灵活、可扩展的推理服务器,支持多种机器学习框架(PyTorch、ONNX等)和部署场景。

本课程讲述如何在Triton Inference Server(推理服务器)上部署YOLOv8目标检测的推理服务。 课程完整演示了在Ubuntu操作系统上使用Triton推理服务器的ONNX Runtime后端TensorRT后端部署YOLOv8目标检测模型。

部署流程涵盖了以下关键步骤: 安装Docker、安装Nvidia Container Toolkit、导出ONNX模型、构建TensorRT引擎、组织模型仓库布局文件、构建Triton推理Docker容器、运行和测试Triton推理服务器。

课程内容

tensorrt后端

课程目录