其他
OpenCL异构编程及GPU计算
OpenCL(全称Open Computing Language,开放运算语言)是第一个面向异构系统通用目的并行编程的开放式、免费标准,也是一个统一的编程环境,便于软件开发人员为高性能计算服务器、桌面计算系统、手持设备编写高效轻便的代码,而且广泛适用于多核心处理器(CPU)、图形处理器(GPU)、Cell类型架构以及DSP等,在游戏、娱乐、科研、医疗等各种领域都有广阔的发展前景。 本课程介绍了OPenCL的环境搭建,主机端编程和Kernel端编程的基础知识;
共49节 40人已学习¥29.0 免费试学机器学习
深度学习开发部署系列课程
1 你将学习各种深度学习模型的加载及C++推理引擎的封装开发,包括:onnx, tensorflow,tensort,openvino,华为昇腾,寒武纪, 并获得对应的直接应用于项目的代码;2 学习多种深度学习推理卡的开发及应用,包括英特尔CPU(openvino), 英伟达GPU(tensorrt),华为推理卡,寒武纪推理卡,能够完成人工智能国产化的开发等工作;并获得对应的封装推理引擎代码,可以直接应用于人工智能项目;3 获得用自己开发引擎整合目标跟踪的方法,包括线性跟踪-DeepSort及非线性跟踪-粒子跟踪;4 学习到数据标注(LabelImg, CVAT)的环境搭建及使用方法;5 通过yolov5的模型训练学习标注后数据的导入导出,数据准备,训练环境的搭建,训练过程,模型转换及导出,模型的加载推理等;6 学习C++代码的开发及调试,漏洞检测等开发工具及过程;7 课程包括:环境配置篇,数据标注篇,模型训练篇,模型引擎篇,部署加速篇,国产化篇,物体跟踪篇 ;涵盖人工智能项目开发的整个流程;
共210节 152人已学习¥3599.0 免费试学机器学习
TensorRT 加速深度学习模型详解
本课程讲解了英伟达TensoRT在加速深度学习模型中的应用,在本课程中,不仅授之以“渔”,而且授之以鱼,在讲解使用方法的基础上,最终完成一个统一的推理引擎和一个统一模型转换工具,可以把tf, caffe和onnx模型通过配置文件转换为TensorRT模型,并使用推理引擎进行加速。同时在Int8量化中给大家讲解了如和进行Int8量化,并赠送了我自己开发的一个手工读取和修改量化表的工具。在课程中给大家讲解了性能优化和如何避免各种坑。使得开发后的工具可以直接在工程部署中应用。
共44节 2187人已学习¥388.0 免费试学PyTorch
Pytorch/onnx深度学习模型C++部署
介绍如何创建优化Pytorch/onnx C++部署框架,如果用英伟达的显卡加速(CUDA/TensorRT)模型的推理,如何在产品中应用。在此课程中会定义统一的借口,可以加载各种onnx模型,最主要的是如何在部署的时候避坑。
共16节 4989人已学习¥129.0 免费试学深度学习
Tensorflow 模型 C++部署实战2-高级部分
本课程是《Tensorflow 模型 C++部署实战》部分的续集,高级部分,主要讲述,如何进行新版本移植,加载Frozen pb, 虚拟GPU, TF-TRT优化专题,对部署框架增加更多功能和性能优化。
共20节 650人已学习¥59.0 免费试学深度学习
Tensorflow 模型 C++部署实战
您将在本课程中学习到用Tensorflow Python接口训练的模型,如和部署到实际产品中。适用人群可以帮助会训练深度学习的模型的同学,学习如何部署模型,特别是实际产品中。课程简介 * 课程目标 让学员熟悉用TensorFlow系列了模型之后,如何部署到实际产品中,并能够自己写代码导出模型和加载模型。 * 适用人群 人工智能领域从业者 or 深度学习实际产品开发人员或者想了解训练模型后,如何部署的学员。 * 课程简介 让学员可以从实战角度深度的学习深度学习产品开发过程,并能够自己写代码实现TF模型的导出和加载,并用C++接口部署到产品中,如何解决模型加密,多卡支持等,并了解Tensorflow源码。 * 在课程资料和答疑部分提供了完整的源码下载;
共32节 3336人已学习¥129.0 免费试学
- 1

郭秀江
技术经理
信息及信号处理博士学位,10年以上计算机图像及视频开发经验;先后就职国内大型上市公司、IT集成商、500强外企的高级开发工程师、资深技术专家、技术经理等职务。具有10年以上视频及图像处理开发经验,3年以上人工智能开发经验。开发了很多视频编解码及人工智能项目。
课程数 6 学生数 11352