购买 ¥388.00 抽豪礼

TensorRT 加速深度学习模型详解-

共44节2180人学习郭秀江 课程详情
播放页问题反馈
  • 课程简介和TensorRT简介

    • 课程简介
    • 1-1 TensorRT Linux 环境配置
    • 1-2 TRT简介和目录功能介绍
  • 推理引擎的开发

    • 2-1 创建推理引擎工程
    • 2-2 推理库辅助函数讲解
    • 2-3 定义推理引擎类接口
    • 2-4 LoadCudaEngine函数的实现
    • 2-5 打开和释放模型接口实现
    • 2-6 获取模型信息函数实现
    • 2-7 推理引擎的输入函数实现
    • 2-8 推理函数Infer的代码实现
    • 2-9 推理引擎输出函数实现
    • 2-10推理库内部接口函数的实现
  • 小试牛刀-python转换TRT并测试推理引擎

    • 3-1 python-ssd2trt环境搭建及准备工作
    • 3-2 SSD-TF2TRT转换(python)(1)
    • 3-3 SSD-TF2TRT转换(python)(2)
    • 3-4 SSD-TF2TRT转换(python)(3)
    • 3-5SSD-TF2TRT转换(python)(4)
    • 3-6SSD-TF2TRT测试(python)(5)
    • 3-7SSD-TF2TRT测试(c++)(6)
  • 统一转换工具的开发

    • 4-1 MyUniTrtConvert 介绍和工程的建立
    • 4-2 读取配置文件
    • 4-3 创建模型转换类接口
    • 4-4 模型转换主函数build代码编写
    • 4-5 ConstructNetWork函数的编写(1)
    • 4-6 ConstructNetWork函数的编写(2)
    • 4-7 SaveEngine函数的编写
    • 4-8 统一转换工具的测试
  • 推理引擎的优化

    • 5-1 升级推理引擎库到TRT7.2.1
    • 5-2 推理引擎的性能分析
    • 5-3 优化推理引擎-增加成员函数和变量原型
    • 5-4 优化推理引擎-处理缺少BatchSize维度的情况
    • 5-5 优化推理引擎-分配和释放显存
    • 5-6 推理引擎优化-处理显存和主存输入的不同情况
    • 5-7 优化推理引擎-处理输入V2
    • 5-8 优化推理引擎-优化输出函数
    • 5-9 优化推理引擎-inferV2的实现
    • 5-10 推理引擎优化-处理动态batch和缺少batchsize的情况
    • 5-11推理引擎优化-调试和测试
  • 关于Int8量化

    • 6-1 Int8量化--准备量化数据
    • 6-2 Int8量化--代码解读和测试
    • 6-3 Int8量化--量化表的解读和工具共享
    • 6-4 Int8量化--配置不同的量化算法
  • 关于windows版本的移植说明

    • 如何移植到windows版本上

    订阅失败

    TensorRT 加速深度学习模型详解
    TensorRT 加速深度学习模型详解 ...

    订阅列表已满,请先移出部分订阅内容。

    当前章节需购买后观看
    开通超级会员免费看!专家精选系列课程,满足你从入门到精通!更有问答月卡免费送,你的问题有问必答!
    提交答案

    购买课程

    扫码完成付费,可继续学习全部课程内容

    加载中...
    正在试验
    后自动删除环境
    课程实验
    本次实验时间已到期 00:00:00
    程序员研修院 v1.1.0
    一、播放器优化
    修改播放器默认倍速设置,增加1.25倍速
    调整目录展示形式,增加折叠/展开
    优化播放器的使用体验,有播放问题可以点击播放页内的”反馈“提交问题
    查看全部版本记录
    课件正在飞速打包中,请耐心等待几秒钟~