Triton推理服务器部署YOLOv8实战

Triton推理服务器部署YOLOv8实战
共19节 302人在学 课程详情
  • 课程介绍

    • 课程介绍
  • Triton推理服务器基础知识

    • 推理服务器设计概述
    • Triton推理服务器quickstart
    • Triton推理服务器架构
    • Triton推理服务器模型配置
  • YOLOv8安装

    • 安装软件环境
    • 安装PyTorch
    • 克隆和安装YOLOv8
  • Triton推理服务器部署(onnxruntime后端)

    • 安装Docker
    • 安装Nvidia Container Toolkit
    • 导出onnx模型
    • 组织模型仓库布局文件
    • 构建Triton推理Docker容器
    • 运行和测试Triton推理服务器
  • Triton推理服务器部署(TensorRT后端)

    • 构建TensorrRT引擎
    • 组织模型仓库布局
    • 构建Triton推理的Docker容器
    • 运行并测试Triton推理服务器
    • 前处理说明

    订阅失败

    Triton推理服务器部署YOLOv8实战
    Triton推理服务器部署YOLOv8实战 ...

    订阅列表已满,请先移出部分订阅内容。

    当前章节需购买后观看
    开通超级会员免费看!专家精选系列课程,满足你从入门到精通!更有问答月卡免费送,你的问题有问必答!
    提交答案

    购买课程

    扫码完成付费,可继续学习全部课程内容

    加载中...
    播放页问题反馈
    视频学习中有任何产品建议都可由此反
    馈,我们将及时处理!

    课时介绍

    本课程讲述如何在Triton Inference Server(推理服务器)上部署YOLOv8目标检测的推理服务。 课程完整演示了在Ubuntu操作系统上使用Triton推理服务器的ONNX Runtime后端和TensorRT后端部署YOLOv8目标检测模型。

    课程介绍

    Triton Inference Server(Triton 推理服务器)是一个高性能、灵活、可扩展的推理服务器,支持多种机器学习框架(PyTorch、ONNX等)和部署场景。

    本课程讲述如何在Triton Inference Server(推理服务器)上部署YOLOv8目标检测的推理服务。 课程完整演示了在Ubuntu操作系统上使用Triton推理服务器的ONNX Runtime后端和TensorRT后端部署YOLOv8目标检测模型。

    部署流程涵盖了以下关键步骤: 安装Docker、安装Nvidia Container Toolkit、导出ONNX模型、构建TensorRT引擎、组织模型仓库布局文件、构建Triton推理Docker容器、运行和测试Triton推理服务器。

    课程内容

    tensorrt后端

    推荐课程

    信息系统项目管理师自考笔记

    李明 · 915人在学

    python从0到1:期货量化交易系统(CTP实战,高频及合成K线数据

    王先生 · 22814人在学

    手把手搭建Java超市管理系统【附源码】(毕设)

    汤小洋 · 4294人在学

    Java毕设springboot外卖点餐系统 毕业设计毕设源码 使用教

    黄菊华 · 838人在学

    基于SSM酒店管理系统(毕设)

    小尼老师 · 899人在学

    java项目实战之购物商城(java毕业设计)

    Long · 5203人在学

    手把手搭建Java求职招聘系统【附源码】(毕设)

    汤小洋 · 1532人在学

    Python Django 深度学习 小程序

    钟翔 · 2409人在学

    城管局门前三包管理系统+微信小程序(vue+springboot)

    赖国荣 · 681人在学

    Vue+Uni-app(uniapp)入门与实战+赠送仿美团点餐小程序

    李杰 · 4076人在学

    正在试验
    后自动删除环境
    课程实验
    本次实验时间已到期 00:00:00
    课件正在飞速打包中,请耐心等待几秒钟~