你将收获

从零开始构建大语言模型,快速成为合格的AI算法工程师

「图解」复杂理论,图文并茂更容易地理解大模型底层原理

「代码」破解公式,行级注释更深入地掌握大模型计算细节

适用人群

1、研发工程师:明确学习方向,用代码详解降低学习理论的门槛,快速成为合格的AI算法工程师,提高收入 2、LLM 开发者:通过动手实践深入理解从RNN、Transformer到LLM的技术演进细节,突破"调包侠"的瓶颈 3、AI 在校生:打通理论到实践的任督二脉,打破"理论懂代码难"的困境,拿到更好公司的实习和 Offer

课程介绍

《动手学 AI》系列课程会通过一系列的代码实战,从零开始构建大语言模型,帮助程序员降低学习的门槛,快速掌握大模型的技术原理,是最适合程序员学习大模型技术的实践性课程。希望用我的经验,让“程序猿”的AI学习之路走的更容易些,若我的经验能为你前行的道路增添一丝轻松,我将倍感荣幸!共勉~

  • 理念:从零开始构建。理解一个事物的最佳方式就是亲手创造它,本课程以从零开始构建为理念来动手学AI。
  • 特点:代码即教材。 亲自动手从零实现RNN、Transformer、GPT等经典架构,逐行解构核心组件代码。
  • 目标:深刻理解大模型。通过一系列代码实战,逐步帮你深刻理解大模型的技术演进脉络和底层工作原理。


课程规划:

  1. 《动手学:机器学习》:从零构建第一个AI模型(Hello,AI World!),帮助程序员快速掌握机器学习的本质。
  2. 《动手学:深度学习》:从零构建第一个神经网络模型(Hello,PyTorch!),帮助程序员快速掌握如何使用 PyTorch 训练神经网络模型。
  3. 《动手学:RNN》:从零构建一个基于 RNN 的 AIGC 模型(中文人名生成),帮助程序员深入理解循环神经网络的底层原理。
  4. 《动手学:Seq2Seq》:从零构建一个基于 GRU 的 Seq2Seq 模型,帮助初学者深刻理解Seq2Seq的架构和改进方式,认知到RNN的局限性和注意力机制的必要性,为学习Transformer奠定基础。
  5. 《动手学:Transformer》:从零构建 Tiny-Transformer 来解决一个Seq2Seq任务,帮助初学者彻底掌握Transformer的底层原理和实现方式,深入理解位置编码、Self-Attention、Mask等核心机制。
  6. 《动手学:LLM》:从零构建并训练一个GPT语言模型,帮助程序员彻底掌握大语言模型的底层原理和实现方式,深入理解语言模型的本质、大模型采样生成策略等核心机制,不做单纯的“调包侠”。


适合人群:

  • 希望进入AI领域的研发工程师:明确学习方向,用代码详解降低学习理论的门槛,快速成为合格的AI算法工程师。
  • 渴望突破"调包侠"瓶颈的 LLM 开发者:通过动手实践深入理解从RNN、Transformer到LLM的技术演进细节,突破"调包侠"的瓶颈。
  • 研究大模型但代码能力弱的"学术派":打通理论到实践的任督二脉,将理论转化为可验证的代码实现,打破"理论懂代码难"的困境。

课程目录