机器学习
TensorRT 加速深度学习模型详解
本课程讲解了英伟达TensoRT在加速深度学习模型中的应用,在本课程中,不仅授之以“渔”,而且授之以鱼,在讲解使用方法的基础上,最终完成一个统一的推理引擎和一个统一模型转换工具,可以把tf, caffe和onnx模型通过配置文件转换为TensorRT模型,并使用推理引擎进行加速。同时在Int8量化中给大家讲解了如和进行Int8量化,并赠送了我自己开发的一个手工读取和修改量化表的工具。在课程中给大家讲解了性能优化和如何避免各种坑。使得开发后的工具可以直接在工程部署中应用。
共44节 1675人已学习¥388.0 免费试学PyTorch
Pytorch/onnx深度学习模型C++部署
介绍如何创建优化Pytorch/onnx C++部署框架,如果用英伟达的显卡加速(CUDA/TensorRT)模型的推理,如何在产品中应用。在此课程中会定义统一的借口,可以加载各种onnx模型,最主要的是如何在部署的时候避坑。
共16节 3457人已学习¥129.0 免费试学深度学习
Tensorflow 模型 C++部署实战2-高级部分
本课程是《Tensorflow 模型 C++部署实战》部分的续集,高级部分,主要讲述,如何进行新版本移植,加载Frozen pb, 虚拟GPU, TF-TRT优化专题,对部署框架增加更多功能和性能优化。
共20节 574人已学习¥59.0 免费试学深度学习
Tensorflow 模型 C++部署实战
您将在本课程中学习到用Tensorflow Python接口训练的模型,如和部署到实际产品中。适用人群可以帮助会训练深度学习的模型的同学,学习如何部署模型,特别是实际产品中。课程简介 * 课程目标 让学员熟悉用TensorFlow系列了模型之后,如何部署到实际产品中,并能够自己写代码导出模型和加载模型。 * 适用人群 人工智能领域从业者 or 深度学习实际产品开发人员或者想了解训练模型后,如何部署的学员。 * 课程简介 让学员可以从实战角度深度的学习深度学习产品开发过程,并能够自己写代码实现TF模型的导出和加载,并用C++接口部署到产品中,如何解决模型加密,多卡支持等,并了解Tensorflow源码。 * 在课程资料和答疑部分提供了完整的源码下载;
共32节 2931人已学习¥129.0 免费试学
- 1

郭秀江
技术经理
信息及信号处理博士学位,10年以上计算机图像及视频开发经验;先后就职国内大型上市公司、IT集成商、500强外企的高级开发工程师、资深技术专家、技术经理等职务。具有10年以上视频及图像处理开发经验,3年以上人工智能开发经验。开发了很多视频编解码及人工智能项目。
课程数 4 学生数 8637