- PyTorch
人工智能pytorch入门课程
PyTorchPyTorch 是一种开源深度学习框架,以出色的灵活性和易用性著称。这在一定程度上是因为与机器学习开发者和数据科学家所青睐的热门 Python 高级编程语言兼容。 什么是 PyTorch?PyTorch 是一种用于构建深度学习模型的功能完备框架,是一种通常用于图像识别和语言处理等应用程序的机器学习。使用 Python 编写,因此对于大多数机器学习开发者而言,学习和使用起来相对简单。PyTorch 的独特之处在于,它完全支持 GPU,并且使用反向模式自动微分 <https://justindomke.wordpress.com/2009/03/24/a-simple-explanation-of-reverse-mode-automatic-differentiation/>技术,因此可以动态修改计算图形。这使其成为快速实验和原型设计的常用选择。 为何选择 PyTorch?PyTorch 是 Facebook AI Research 和其他几个实验室的开发者的工作成果。该框架将 Torch <http://torch.ch/> 中高效而灵活的 GPU 加速后端库与直观的 Python 前端相结合,后者专注于快速原型设计、可读代码,并支持尽可能广泛的深度学习模型。Pytorch 支持开发者使用熟悉的命令式编程方法,但仍可以输出到图形。它于 2017 年以开源形式发布,其 Python 根源使其深受机器学习开发者的喜爱。图像引用 https://pytorch.org/features/ <https://pytorch.org/features/>值得注意的是,PyTorch 采用了 Chainer <https://chainer.org/> 创新技术,称为反向模式自动微分 <https://justindomke.wordpress.com/2009/03/24/a-simple-explanation-of-reverse-mode-automatic-differentiation/>。从本质上讲,它就像一台磁带录音机,录制完成的操作,然后回放,计算梯度。这使得 PyTorch 的调试相对简单,并且能够很好地适应某些应用程序,例如动态神经网络。由于每次迭代可能都不相同,因此非常适用于原型设计。PyTorch 在 Python 开发者中特别受欢迎,因为它使用 Python 编写,并使用该语言的命令式、运行时定义即时执行模式,在这种模式下,从 Python 调用运算时执行运算。随着 Python 编程语言的广泛采用,一项调查显示 <https://www.datanami.com/2021/01/26/python-popularity-persists-ai-drives-pytorch/>,AI 和机器学习任务受到越来越多的关注,并且相关 PyTorch 的采用也随之提升。这使得 PyTorch 对于刚接触深度学习的 Python 开发者来说是一个很好的选择,而且越来越多的深度学习课程基于 PyTorch。从早期版本开始,API 一直保持一致,这意味着代码对于经验丰富的 Python 开发者来说相对容易理解。PyTorch 的独特优势是快速原型设计和小型项目。其易用性和灵活性也使其深受学术和研究界的喜爱。Facebook 开发者一直努力改进 PyTorch 的高效应用。新版本已提供增强功能,例如支持谷歌的 TensorBoard 可视化工具以及即时编译。此外,还扩展了对ONNX <https://onnx.ai/>(开放神经网络交换)的支持,使开发者能够匹配适合其应用程序的深度学习框架或运行时。PyTorch 的主要优势PyTorch 的一些重要特性包括: * PyTorch.org <https://pytorch.org/> 社区有一个充满活力的大型社区,具有优秀的文档和教程。论坛十分活跃,并能给予帮助和支持。 * 采用 Python 编写,并集成了热门的 Python 库,例如用于科学计算的 NumPy <https://numpy.org/>、SciPy 和用于将 Python 编译为 C 以提高性能的 Cython。由于 PyTorch 的语法和用法类似于 Python,因此对于 Python 开发者来说,学习起来相对容易。 * 受主要云平台的有力支持。 * 脚本语言(称为 TorchScript)在即时模式下易于使用且灵活。这是一种快速启动执行模式,从 Python 调用运算时立即执行运算,但也可以在 C++ 运行时环境中转换为图形模型,以提高速度和实现优化。 * 它支持 CPU、GPU、并行处理以及分布式训练。这意味着计算工作可以在多个 CPU 和 GPU 核心之间分配,并且可以在多台机器上的多个 GPU 上进行训练。 * PyTorch 支持动态计算图形,能够在运行时更改网络行为。与大多数机器学习框架相比,提供了更大的灵活性优势,因为大多数机器学习框架要求在运行时之前将神经网络定义为静态对象。 * PyTorch Hub <https://pytorch.org/hub/> 是一个预训练模型库,在某些情况下只需使用一行代码就可以调用。 * 新自定义组件可创建为标准 Python 类的子类,可以通过 TensorBoard 等外部工具包轻松共享参数,并且可以轻松导入和内联使用库。 * PyTorch 拥有一组备受好评的 API,可用于扩展核心功能。 * 既支持用于实验的“即时模式”,也支持用于高性能执行的“图形模式”。 * 拥有从计算机视觉到增强学习等领域的大量工具和库。 * 支持 Python 程序员熟悉的纯 C++ 前端接口,可用于构建高性能 C++ 应用程序。 PyTorch 的工作原理PyTorch 和 TensorFlow 的相似之处在于,两者的核心组件都是张量和图形。张量张量 <https://pytorch.org/tutorials/beginner/blitz/tensor_tutorial.html#sphx-glr-beginner-blitz-tensor-tutorial-py>是一种核心 PyTorch 数据类型,类似于多维数组,用于存储和操作模型的输入和输出以及模型的参数。张量与 NumPy 的 ndarray 类似,只是张量可以在 GPU 上运行以加速计算。图形神经网络将一系列嵌套函数应用于输入参数,以转换输入数据。深度学习的目标是通过计算相对损失指标的偏导数(梯度),优化这些参数(包括权重和偏差,在 PyTorch 中以张量的形式存储)。在前向传播中,神经网络接受输入参数,并向下一层的节点输出置信度分数,直至到达输出层,在该层计算分数误差。在一个称为梯度下降的过程中,通过反向传播,误差会再次通过网络发送回来,并调整权重,从而改进模型。图形 <https://developer.nvidia.com/discover/graph-analytics>是由已连接节点(称为顶点)和边缘组成的数据结构。每个现代深度学习框架都基于图形的概念,其中神经网络表示为计算的图形结构。PyTorch 在由函数对象组成的有向无环图 <https://pytorch.org/tutorials/beginner/blitz/autograd_tutorial.html#sphx-glr-beginner-blitz-autograd-tutorial-py> (DAG) 中保存张量和执行操作的记录。在以下 DAG 中,叶是输入张量,根是输出张量。在许多热门框架(包括 TensorFlow)中,计算图形是一个静态对象。PyTorch 基于动态计算图形 <https://developer.nvidia.com/blog/recursive-neural-networks-pytorch/>,即,在运行时构建和重建计算图形,并使用与执行前向传递的计算相同的代码,同时还创建反向传播所需的数据结构。PyTorch 是首个运行时定义深度学习框架,与 TensorFlow 等静态图形框架的功能和性能相匹配,非常适合从标准卷积网络到时间递归神经网络等所有网络。 PyTorch 用例众所周知,PyTorch 框架十分便捷且灵活,增强学习、图像分类和自然语言处理等示例是比较常见的用例 <https://ngc.nvidia.com/catalog/collections?orderBy=scoreDESC&pageNumber=0&query=pytorch&quickFilter=collections&filters=>。商业、研究和教育示例自然语言处理 (NLP):从 Siri 到 Google Translate,深度神经网络 <https://developer.nvidia.com/discover/artificialneuralnetwork>在机器理解自然语言方面取得了突破性进展。其中大多数模型都将语言视为单词或字符的平面序列,并使用一种称为时间递归神经网络 <https://developer.nvidia.com/discover/recurrentneuralnetwork> (RNN) 的模型处理该序列。但是,许多语言学家认为,语言极易理解为一个由短语组成的层次树,因此,大量研究已经进入称为递归神经网络 <https://developer.nvidia.com/blog/recursive-neural-networks-pytorch/>的深度学习 <https://developer.nvidia.com/deep-learning>模型,该模型将这种结构考虑在内。虽然这些模型难以实现且运行效率低下,但 PyTorch <http://pytorch.org/> 使这些模型和其他复杂自然语言处理变得容易得多。Salesforce 正在使用 PyTorch <https://pytorch.org/> 进行 NLP 和多任务学习。研究:PyTorch 具有易用性、灵活性和快速原型设计,是研究的首选。斯坦福大学正在利用 PyTorch <https://pytorch.org/>的灵活性高效研究新的算法方法。教育:Udacity <https://www.udacity.com/course/deep-learning-pytorch--ud188> 正在使用 PyTorch 培养 AI 创新者。PyTorch 的重要意义……数据科学家对于熟悉 Python 的程序员而言,PyTorch 学习起来相对容易。它提供了简单的调试、简单的 API,并且兼容各种内置 Python 的扩展。其动态执行模型也非常适合原型设计,尽管会产生一些性能开销。软件开发者PyTorch 支持各种功能,可以快速轻松地部署 AI 模型。它还具有丰富的库生态系统,如 Captum(用于模型可解释性)、skorch(scikit-learn 兼容性)等,以支持开发。PyTorch 具有出色的加速器生态系统,例如,Glow <https://github.com/pytorch/glow>(用于训练)和 NVIDIA® <https://developer.nvidia.com/tensorrt> TensorRT™ <https://developer.nvidia.com/tensorrt>(用于推理)。GPU:深度学习的关键在架构方面,CPU 仅由几个具有大缓存内存的核心组成,一次只可以处理几个软件线程。相比之下,GPU 由数百个核心组成 <https://blogs.nvidia.com/blog/2009/12/16/whats-the-difference-between-a-cpu-and-a-gpu/>,可以同时处理数千个线程。先进的深度学习神经网络可能有数百万乃至十亿以上的参数需要通过反向传播进行调整。由于神经网络由大量相同的神经元构建而成,因此本质上具有高度并行性。这种并行性会自然地映射到 NGC (NVIDIA GPU Cloud),用户可以在其中提取容器,这些容器具有可用于各种任务(例如计算机视觉、自然语言处理等)的预训练模型,且所有依赖项和框架位于一个容器中。借助 NVIDA 的TensorRT <https://developer.nvidia.com/tensorrt>,使用 NVIDIA GPU 时,可以在 PyTorch 上显著提高推理性能。 面向开发者的 NVIDIA 深度学习GPU 加速深度学习框架能够为设计和训练自定义深度神经网络带来灵活性,并为 Python 和 C/C++ 等常用编程语言提供编程接口。MXNet、PyTorch、TensorFlow 等广泛使用的深度学习框架 <https://developer.nvidia.com/deep-learning-frameworks>依赖于 NVIDIA GPU 加速库,能够提供高性能的多 GPU 加速训练。NVIDIA GPU 加速的端到端数据科学基于 CUDA-X AI <https://developer.nvidia.com/machine-learning> 创建的 NVIDIA RAPIDS™ <https://developer.nvidia.com/rapids> 开源软件库套件使您完全能够在 GPU 上执行端到端数据科学和分析流程。此套件依靠 NVIDIA CUDA 基元进行低级别计算优化,但通过用户友好型 Python 接口实现了 GPU 并行化和高带宽显存速度。借助 RAPIDS GPU DataFrame,数据可以通过一个类似 Pandas 的接口加载到 GPU 上,然后用于各种连接的机器学习和图形分析算法,而无需离开 GPU。这种级别的互操作性是通过 Apache Arrow 这样的库实现的。这可加速端到端流程(从数据准备到机器学习,再到深度学习)。RAPIDS 支持在许多热门数据科学库之间共享设备内存。这样可将数据保留在 GPU 上,并省去了来回复制主机内存的高昂成本。 后续步骤请阅读以下博客: * 与 PyTorch 结合使用 RAPIDS。使用 GPU 进行 ETL 和预处理…… | 作者:Even Oldridge | RAPIDS AI * 使用 PyTorch 的递归神经网络 <https://developer.nvidia.com/blog/recursive-neural-networks-pytorch/> * PyTorch 深度学习框架:速度 + 易用性 | 作者:Synced | SyncedReview * 使用 Rapids、FastAI 和 Pytorch 将深度学习推荐系统加速 15 倍 了解: * 开发者、研究人员和数据科学家可以通过 PyTorch 示例 <https://ngc.nvidia.com/catalog/collections?orderBy=scoreDESC&pageNumber=0&query=pytorch&quickFilter=collections&filters=>轻松访问 NVIDIA 优化深度学习框架容器化,这些示例针对 NVIDIA GPU 进行了性能调整和测试。这能够消除对软件包和依赖项的管理需要,或根据源头构建深度学习框架的需要。请访问NVIDIA NGC <https://www.nvidia.cn/gpu-cloud/> 了解详情并开始使用。 * NVIDIA NeMo <https://developer.nvidia.com/nvidia-nemo> 是一个开源工具包,具有 PyTorch 后端,可进一步推动抽象概念。借助 NeMo,您可以使用三行代码快速编写和训练复杂的神经网络架构。NeMo 还附带有适用于ASR <https://catalog.ngc.nvidia.com/orgs/nvidia/models/nemospeechmodels#cid=dl13_partn_en-us>、NLP <https://catalog.ngc.nvidia.com/orgs/nvidia/models/nemonlpmodels#cid=dl13_partn_en-us> 和TTS <https://catalog.ngc.nvidia.com/orgs/nvidia/models/nemottsmodels#cid=dl13_partn_en-us> 的可扩展模型集合。这些集合提供了轻松构建先进网络架构(例如 QuartzNet、BERT、Tacotron 2 和 WaveGlow)的方法。借助 NeMo,您还可以通过随时可用的 API 自动从NVIDIA NGC <https://catalog.ngc.nvidia.com/> 下载和实例化这些模型,在自定义数据集上微调这些模型。 * NVIDIA 提供经过优化的软件堆栈,可加速深度学习工作流程的训练和推理阶段。如需详细了解相关信息,请访问 NVIDIA 深度学习主页 <https://developer.nvidia.com/deep-learning>。 * NVIDIA Volta™ 和 Turing™ GPU 上的 Tensor Core <https://developer.nvidia.com/tensor_cores> 专门为深度学习而设计,能够显著提高训练和推理性能。了解有关获取参考实现 <https://developer.nvidia.com/deep-learning-examples>的更多内容。 * NVIDIA 深度学习培训中心 <https://www.nvidia.cn/deep-learning-ai/education/?ncid=so-dis-dldlwsd1-72342> (DLI) 能够为开发者、数据科学家和研究人员提供有关 AI 和加速计算的实操培训。 * 请查看深度学习简介 <https://developer.nvidia.com/blog/deep-learning-nutshell-core-concepts/>,详细了解有关深度学习的更多深入技术探讨。 * 如需了解开发者资讯和资源,请访问 NVIDIA 开发者网站 <https://developer.nvidia.com/>。
共5节 18人已学习免费 免费试学 - AIGC/LLM
基于百万语料的医疗RAG大模型项目实战
大模型系列-基于百万语料的医疗RAG项目讲解1.LLM的应用神器RAG2.RAG如何解决LLM现有的问题3.基于百万语料的医疗RAG项目讲解
共3节 286人已学习免费 免费试学 - 深度学习
Transformer模型详解
2024给Transformer加速的几种方法,超 详 细 全方 位 解 读!
共9节 221人已学习免费 免费试学 - AIGC/LLM
AI大模型训练营二期开课啦
共8节 264人已学习免费 免费试学 - AIGC/LLM
多模态大模型LLM 与AIGC实战课程
共11节 758人已学习免费 免费试学 - AIGC/LLM
AI大模型训练营开课啦
共13节 874人已学习免费 免费试学 - 机器学习
人工智能-数学基础与进阶
务实数学基础,扫平论文障碍,面试效果提升。数学对我们每一个程序员来说,都是最熟悉的陌生人。
共11节 740人已学习免费 免费试学 - 深度学习
AI人工智能-公开课部分
北大博士后卢老师亲自授课!!!!零基础高效入门-> 保姆级精讲解析 -> 一对一问题指导 前沿顶级技术 -> 大厂实战项目-> 就业全程指导
共16节 2202人已学习免费 免费试学 - 机器学习
人工智能AR(增强现实)-公开课部分
AR(增强现实) -从入门到项目实战,涵盖语音和视觉交互 、边缘计算。普通人进入元宇宙的 " 敲 门 砖 " 。---------------------课程目录-----(理论与实战结合)--------------------------------------
共4节 415人已学习免费 免费试学 - 计算机视觉
计算机视觉入门到精通
共3节 654人已学习免费 免费试学 - 机器学习
人工智能从入门到精通
卢菁老师介绍:北京科技⼤学博⼠、北京⼤学博⼠后、腾讯AI算法 铜奖 2018。京东技术书籍热销榜作者,著有《速通机器学习》及《速通深度学习数学基础》。就职于腾讯、爱奇艺等知名互联⽹公司。深耕于⼈⼯智能技术的应⽤与开发。擅⻓机器学习、⾃然语⾔处理、知识图谱、推荐系统等。
共5节 841人已学习免费 免费试学
- 1
北大博士后 卢菁老师
AI人工智能专家
北京科技⼤学博⼠、北京⼤学博⼠后、腾讯AI算法 铜奖 2018;擅⻓大模型、机器学习、⾃然语⾔处理、知识图谱、推荐系统等介绍。(+V:xhs541 领取AI资料及加入学习群)
1、【AI大模型训练营】正式开启,抢占技术红利 探索前沿应用 直击大厂标准!
2、《0基础入门到精通人工智能》内容涵盖机器学习,深度学习,推荐系统,NLP,计算机视觉等多方面内容,包括了理论,实战,面试指导,刷题等多方面内容,授课方式为直播+录播+一对一答疑。
京东技术书籍热销榜作者,著有《速通机器学习》及《速通深度学习数学基础》。学习完成后,相当于3年工作经验。
课程数 11 学生数 7273