AIGC/LLM动手学 RNN:从零构建基于 RNN 的 AIGC 模型
本次课程从零开始训练一个中文人名生成的 AIGC 模型,用详细到行级别的代码讲解,帮助程序员彻底掌握循环神经网络相关的技术原理。《动手学 AI》系列课程基于"从零构建"的理念,通过一系列代码实战,降低学习 AI 的门槛,是非常适合程序员快速入门大语言模型的实践性课程。
共6节 6人已学习超级会员免费 免费试学
AIGC/LLM动手学 AI:程序员的 LLM 实践课
《动手学 AI》系列课程会通过一系列的代码实战,从零开始构建大语言模型,帮助程序员降低学习的门槛,快速掌握大模型的技术原理,是最适合程序员学习大模型技术的实践性课程。希望用我的经验,让“程序猿”的AI学习之路走的更容易些,若我的经验能为你前行的道路增添一丝轻松,我将倍感荣幸!共勉~ * 理念:从零开始构建。理解一个事物的最佳方式就是亲手创造它,本课程以从零开始构建为理念来动手学AI。 * 特点:代码即教材。 亲自动手从零实现RNN、Transformer、GPT等经典架构,逐行解构核心组件代码。 * 目标:深刻理解大模型。通过一系列代码实战,逐步帮你深刻理解大模型的技术演进脉络和底层工作原理。 课程规划: * 《动手学:机器学习》:从零构建第一个AI模型(Hello,AI World!),帮助程序员快速掌握机器学习的本质。 * 《动手学:深度学习》:从零构建第一个神经网络模型(Hello,PyTorch!),帮助程序员快速掌握如何使用 PyTorch 训练神经网络模型。 * 《动手学:RNN》:从零构建一个基于 RNN 的 AIGC 模型(中文人名生成),帮助程序员深入理解循环神经网络的底层原理。 * 《动手学:Seq2Seq》:从零构建一个基于 GRU 的 Seq2Seq 模型,帮助初学者深刻理解Seq2Seq的架构和改进方式,认知到RNN的局限性和注意力机制的必要性,为学习Transformer奠定基础。 * 《动手学:Transformer》:从零构建 Tiny-Transformer 来解决一个Seq2Seq任务,帮助初学者彻底掌握Transformer的底层原理和实现方式,深入理解位置编码、Self-Attention、Mask等核心机制。 * 《动手学:LLM》:从零构建并训练一个GPT语言模型,帮助程序员彻底掌握大语言模型的底层原理和实现方式,深入理解语言模型的本质、大模型采样生成策略等核心机制,不做单纯的“调包侠”。适合人群: * 希望进入AI领域的研发工程师:明确学习方向,用代码详解降低学习理论的门槛,快速成为合格的AI算法工程师。 * 渴望突破"调包侠"瓶颈的 LLM 开发者:通过动手实践深入理解从RNN、Transformer到LLM的技术演进细节,突破"调包侠"的瓶颈。 * 研究大模型但代码能力弱的"学术派":打通理论到实践的任督二脉,将理论转化为可验证的代码实现,打破"理论懂代码难"的困境。
共22节 60人已学习¥1199.0 免费试学
AIGC/LLM动手学:机器学习
《动手学:机器学习》会从零构建第一个AI模型(Hello,AI World!),帮助程序员快速掌握机器学习的本质。 《动手学AI》是专为程序员学习大语言模型技术而设计的实践性课程。本系列课程基于"从零开始构建"的理念,通过一系列代码实战,帮助程序员快速入门大语言模型并深刻理解其技术原理,在AI相关的学习、面试、工作中建立巨大的相对优势。 课程设计上具有以下亮点: * 「图解」复杂理论,一图胜千言 * 「代码」破解公式,清除绊脚石
共4节 303人已学习免费 免费试学
- 1
孔令辉
资深大模型工程师
北京大学硕士,前中国电信算法专家,现就职于一线互联网企业任资深大模型专家,10多年互联网一线实战经验,长期负责算法团队的招聘和面试。希望用我的经验,让同学们的AI学习之路走的更容易些,若能为你前行的道路增添一丝轻松,我将倍感荣~
课程数 3 学生数 369