你将收获

从零到一开始构建大语言模型的完整流程,厘清其内在原理

学会文本表示,注意为机制、Transformer等大模型核心技术,掌握BERT、GPT等预训练范式

厘清Soft Prompt、Adapter、LoRA、 QLoRA等LLM微调、压缩、量化范式和微调方法实战

了解Few Shots、CoT,ReAct等优化LLM输出的提示工程技巧

适用人群

对构建大语言模型、部署AI应用感兴趣的软件工程师和技术带头人

课程介绍

课程讲师

黄佳

 黄佳

新加坡科研局首席 AI 研究员

《GPT图解 大模型是怎样构建的》作者
入行 20 余年。参与过政府部门、银行、电商、能源等多领域大型项目,积累了极为丰富的人工智能和大数据项目实战经验。近年主攻方向为 NLP 预训练大模型应用、FinTech 应用、持续学习。
曾出版《GPT图解 大模型是怎样构建的》《数据分析咖哥十话》《零基础学机器学习》《SAP 程序设计》等多本畅销书。《GPT图解 大模型是怎样构建的》一经问世,就赢得全网好评,豆瓣评分高达9.2分,荣获“年度IT图书”奖!

图书1                   图书2 

即将出版的书籍还有《大模型应用开发 动手做AI Agent》。

 

课程介绍

随着以ChatGPT、GPT-4为代表的大语言模型的快速发展和广泛应用,掌握如何利用LLM构建智能化的AI应用已成为开发者的必修课。本课程旨在系统讲解大语言模型的原理和实践,从零开始教你构建与微调大模型,并利用LangChain和Llamalndex等框架设计,开发、部置功能强大的AI应用。

在理论讲解的同时,每一部分都配有贴近真实场景的实战项目,如通过AI Agent进行智能定价、智能库存管理,企业营销方案优化和多模态RAG检索系统的实现等,让你快速将所学应用到实践中。

通过学习本课程,你将全面掌握大语言模型的原理与应用开发方法,积累丰富的LLM实战经验,并能够触类旁通,将其迁移到更多的应用场景中,在AI时代立于不败之地。

 

课程收获

通过学习本门课程,你将收获:

  • 从零到一开始构建大语言模型的完整流程,厘清其内在原理
  • 学会文本表示,注意力机制、Transformer等大模型核心技术,掌握BERT、GPT等预训练范式
  • 厘清Soft Prompt、Adapter、LoRA、 QLoRA等LLM微调、压缩、量化范式和微调方法实战
  • 了解Few Shots、CoT,ReAct等优化LLM输出的提示工程技巧
  • Refection、ReAct、Tool Calls(Function)、Plan-and-Execute, Multi-Agent协作等Agent思维框架的设计和实现
  • 使用LangChain进行LLM应用开发的关键范式和实战经验
  • 掌握LangChain的架构设计与核心组件:记忆、链、代理等
  • 学会用LlamaIndex实现RAG(Retrieval-Augmented Generation)
  • 积累搭建可用、可靠、可扩展的LLM应用的架构设计经验

课程目录