你将收获

系统掌握大模型全栈技能:实操DeepSeek大模型部署和微调、大模型核心技术原理。

借权威资源快速破局:依托清华社教材与陈敬雷老师亲授,学完即能用 Unsloth 优化训练、搭 RAG 系统,从零基础到独立完成企业级智能问答项目。

吃透前沿技术本质:解析智能涌现、AI Agent 底层逻辑,掌握 GPT-4o/Sora 等多模态技术,同步行业最新动态,技术视野与落地能力双提升。

收获可复用实战经验:全流程掌握数据处理→模型微调→部署全链条,产出大模型思维链COT 推理、多模态智能体等项目,简历加分 + 职场竞争力飙升。

适用人群

人工智能开发者、学习者,想系统掌握大模型技术原理与实践技能; 企业技术人员,需规划大模型应用与开发方向,推动业务落地; 高校师生、科研人员,从事大模型相关研究,寻求理论与实践结合的学习资源; 对 AI 技术充满热情,希望紧跟前沿,提升自身竞争力的职场人士。

课程介绍

一、购课送配套清华大学出版社教材【纸质正版《GPT多模态大模型与AI Agent智能体》】

购买此课程的用户赠送陈敬雷老师清华大学出版社正版纸质书籍《GPT多模态大模型与AI Agent智能体》!购买后加陈敬雷老师微信chenjinglei66领取。

二、课程优势

本课程有陈敬雷老师的清华大学出版社配套新书教材《GPT多模态大模型与AI Agent智能体》(跟我一起学人工智能)。

新书配合此实战课程结合学习,一静一动,互补高效学习!

本课程由互联网一线知名大牛陈敬雷老师全程亲自授课,技术前沿热门,是真正的互联网工业级实战项目。

三、课程简介

当DeepSeek、 GPT-4/5、Sora 等大语言模型、多模态大模型持续引爆 AI 领域,你是否渴望看透技术本质、掌控发展脉络?这门聚焦大模型技术原理的课程,将为你搭建从基础到前沿的完整知识框架,助你在 AI 浪潮中站稳脚跟。

课程核心亮点:从根源到前沿,锻造硬核 AI 技能

1.技术本源深度挖掘

追溯大模型技术起源与发展思想,通过代码实践具象化理论,解析 Transformer 预训练语言模型的底层架构,让你明白大模型 “能做事” 的根本原因。

对比不同技术路径的优劣,掌握大模型从基础构建到功能实现的核心逻辑。

2.实战能力层层递进

系统学习 Prompt 提示词工程的理论与实践,结合指令微调技术,学会用精准指令激发大模型潜能,实现场景化高效应用。

深入人类反馈强化学习领域,掌握DeepSeek训练微调、马尔科夫决策过程、PPO 算法,通过 RLHF+PPO 代码实战,让模型输出更贴合人类需求。掌握Ollama本地部署及训练微调DeepSeek大模型:系统讲解 Ollama 的安装配置,以及 DeepSeek 大模型的部署流程,涵盖模型管理、接口调用及 Open WebUI 集成、本地运行DeepSeek-R1满血版大模型、训练微调DeepSeek-R1大模型等内容,助力掌握本地化大模型部署及微调技术。

3.前沿趋势精准把握

解析 GPT 智能涌现原理,弄懂思维链、上下文学习能力等 “智能表现” 的成因,前瞻通用人工智能(AGI)的发展方向,提前布局技术高地。

4.课程模块详解:体系化学习,收获明确

第一部分:DeepSeek大模型企业应用落地实践

1. Ollama 框架详解:本地部署 DeepSeek 大模型实战指南

核心内容:深度剖析 Ollama 框架,从安装到配置,一步步教你在本地部署 DeepSeek 大模型,涵盖模型下载、运行及管理等实操环节。

学习受益:掌握 Ollama 框架运用,能独立在本地部署 DeepSeek 大模型,降低模型使用成本,保障数据隐私,提升自然语言处理效率。

2. Ollama 安装与 DeepSeek 大模型部署全流程操作实践

核心内容:全面覆盖 Ollama 在不同系统的安装方法,以及 DeepSeek 大模型从选型到部署的完整流程,包含硬件适配、版本选择及部署后测试。

学习受益:通过实践掌握 Ollama 与 DeepSeek 大模型部署技能,可依自身需求灵活搭建模型环境,为 AI 相关工作、学习筑牢基础。

3. Open WebUI 全方位解析:自托管 AI 平台功能与应用

核心内容:详细解读 Open WebUI 自托管 AI 平台,介绍其安装方式、多模型兼容特性、权限管理及丰富的功能模块,如 RAG 集成等。

学习受益:学会运用 Open WebUI 搭建个性化 AI 平台,利用其丰富功能提升大模型交互体验,满足企业级或个人多样化 AI 应用需求 。

4. 基于Unsloth的DeepSeek训练微调核心工具

核心内容:基于 Unsloth 对 DeepSeek 模型,优化训练效率与内存占用,适配多场景部署,支持灵活导出与定制。    

学员收益:掌握高效微调 DeepSeek 的方法,降低硬件门槛,提升模型落地能力,助力科研与企业应用。

5. DeepSeek-R1训练微调代码实践

核心内容:DeepSeek-R1高效训练微调,结合医学 COT思维链 数据集,实操 LoRA、量化压缩,实现专业领域推理大模型问答全流程。

学员收益:快速掌握数据处理到部署全流程,攻克大模型微调痛点,获得医学垂类模型训练实战能力。然后举一反三,相同代码可以应用到其他行业。​

6. 吃透 DeepSeek-R1:模型文件全解析与实战指南
    
核心内容:解析架构与训练机制,详解 163 个分片文件及配置、分词器,含多领域实战案例。
    
学员收益:掌握模型原理与优化,提升实战能力,拓宽职业路,培养逻辑与创新思维。

7. 本地运行DeepSeek-R1满血版大模型
    
核心内容:涵盖硬件配置(多高端 GPU 等)、环境部署、模型下载与调优,及推理测试全流程。
    
学员收益:掌握本地部署技能,实现隐私数据处理,降低依赖,提升大模型实战与优化能力。

第二部分:大模型核心技术原理

8. 大模型技术的起源、思想及代码实践

核心内容:介绍大模型技术的发展历程、核心思想,搭配相关代码实操演练
    
学员收益:理清大模型技术的来龙去脉,通过代码实践将抽象思想转化为具体认知

9. 基于 Transformer 的预训练语言模型

核心内容:详解 Transformer 架构的构成、工作原理及在预训练语言模型中的应用

学员收益:掌握 Transformer 架构的核心知识,理解预训练语言模型的构建基础

10. Prompt 提示词学习工程理论与实践
    
核心内容:阐述 Prompt 提示词工程的理论知识,结合实际案例进行实践操作

学员收益:学会设计高质量 Prompt,有效提升大模型的响应效果和任务完成度

第三部分:大模型训练微调、基于RLHF人类反馈强化学习对齐、PPO强化学习算法 理论与实践

11. 大模型训练微调理论与实践

核心内容:讲解指令微调的基本原理、实施步骤和相关技巧,进行实践训练    

学员收益:掌握指令微调方法,使大模型能更好地适配特定场景和任务

12. 人类反馈强化学习
    
核心内容:介绍人类反馈强化学习的概念,解析马尔科夫决策过程的原理及应用

学员收益:学员将掌握人类反馈强化学习核心概念,理解马尔科夫决策过程原理与应用,提升对智能系统通过人类反馈优化决策的认知,为相关技术实践奠定基础。

13. PPO 强化学习算法
    
核心内容:深入讲解 PPO 算法的原理、数学推导和实现过程

学员收益:熟练掌握 PPO 算法,为开展强化学习相关工作奠定坚实基础

14. 大模型人类反馈强化学习对齐    

核心内容:探讨大模型与人类反馈强化学习对齐的原则、方法和挑战    

学员收益:学会使大模型的行为符合人类价值观和需求,提升模型的可靠性

15. 人类反馈强化学习 RLHF+PPO 代码实践

核心内容:结合具体案例,进行 RLHF 与 PPO 结合的代码编写和实操练习

学员收益:通过实战掌握 RLHF+PPO 的应用,提升用代码优化大模型的能力

第四部分: 大模型思维链COT推理及上下文指令理解

16. 大模型思维链COT

核心内容:讲解思维链的概念、作用机制和在大模型中的应用方式

学员收益:掌握利用思维链提升大模型推理能力的方法

17. 大模型上下文学习能力

核心内容:分析大模型上下文学习能力的原理、影响因素和提升技巧    

学员收益:理解大模型上下文学习的本质,学会充分利用该能力提升模型表现

18. 大模型指令理解

核心内容:探讨大模型指令理解的机制、常见问题及优化方法

学员收益:提升大模型对复杂指令的理解准确度,增强模型的实用性

第五部分: 通用人工智能AGI

19. GPT 智能涌现原理与 AGI 通用人工智能通讲

核心内容:解析 GPT 智能涌现的原理,全面讲解 AGI 通用人工智能的相关知识

学员收益:理解 GPT 智能涌现的本质,对 AGI 有系统且深入的认识

20. 智能涌现原理

核心内容:阐释智能涌现的定义、特征、产生条件和表现形式

学员收益:明确智能涌现的概念,理解大模型能力突然提升的关键所在

21. 通用人工智能AGI

核心内容:介绍通用人工智能的概念、发展现状、关键技术和未来趋势

学员收益:全面了解通用人工智能,把握其发展方向,为相关研究和应用做准备

第六部分:AI Agent智能体、MCP代码开发、工作流开发等操作实践

22.Dify/Coze平台基础环境搭建-Docker和WSL安装操作实践

本课程聚焦Dify/Coze平台基础环境搭建,深入讲解 Docker 与 WSL 安装实操。从 Windows 系统下以管理员身份运行命令行安装 WSL,开启 Hyper-V 功能,到官网下载安装 Docker Desktop,并巧妙配置镜像源提升下载速度,每一步都有详细演示与指导。同时,课程会给出下载 Dify 并启动的具体步骤,帮助你快速搭建起 Dify 运行所需的基础环境,为后续深入探索 Dify 平台强大功能筑牢根基,无论是编程新手还是 AI 爱好者,都能轻松上手 。

23.最新Dify源码平台安装实操和核心架构全流程拆解 


本课程围绕最新 Dify 源码平台展开,为你呈上全面的安装实操与核心架构拆解。从前期环境准备,像不同系统下 Docker、Docker Compose 及 Git 的安装配置,到一步步克隆 Dify 代码,启动中间件服务,再到细致地配置并运行后端 API 服务与前端 Web 服务,每一个安装环节都有详细步骤演示与深度讲解,助你顺利搭建 Dify 平台。
在核心架构拆解部分,课程深入剖析 Dify 的六大功能层。从负责任务调度与逻辑处理的核心业务层,到提供交互界面的交互与展示层;从承担数据存储与缓存功能的数据存储与缓存层,到赋予平台 AI 能力的 AI 能力层;还有保障网络安全与请求转发的网络与安全层,以及用于隔离测试的隔离与测试层,帮你透彻理解各层容器的作用及协同工作机制。无论你是想基于 Dify 开发 AI 应用的开发者,还是对其架构原理感兴趣的技术爱好者,本课程都能让你收获满满,为后续深入应用 Dify 平台奠定坚实基础 。

24.Dify集成DeepSeek和阿里通义千问等大模型底座插件安装


想拓展 Dify 平台的大模型能力吗?本课程聚焦 Dify 集成 DeepSeek、阿里通义千问等大模型底座插件的安装实操。从前期准备,如获取对应模型 API Key、检查 Dify 市场插件可用性,到安装环节,细致演示在 Dify 市场中精准定位并下载 DeepSeek、通义千问插件(规避版本报错问题),再到关键的配置阶段,指导你在 Dify 系统内正确填入 API Key,开启所需模型开关。同时,深入剖析不同插件与 Dify 现有架构的融合逻辑,助你理解安装后如何让新模型在 Dify 平台上稳定运行、高效协作,轻松为 Dify 增添多元大模型支持,拓展应用开发边界 。

25.Dify平台 - 配置Agent策略及MCP插件

在Dify平台强大的生态体系中,合理配置Agent策略与安装MCP插件,能极大拓展其功能边界,为AI应用开发带来更多可能。本课程将深入聚焦这两大关键板块,助力开发者全面掌握相关实操技能。

课程开篇,会为你详细阐释Agent策略的核心概念与在Dify平台中的关键作用。通过直观的演示,你将学习如何在Dify的Chatflow/Workflow编辑器内,精准拖拽Agent节点至画布,并深入理解Function Calling和ReAct等内置策略的差异,依据不同业务场景做出选择。例如,在处理明确的任务需求时,Function Calling可快速调用外部函数,实现高效响应;而ReAct策略则适用于需要多步推理、交替思考与行动的复杂场景。同时,课程会细致讲解如何在节点配置面板中,针对所选策略,合理设置驱动大语言模型、添加并配置可调用工具、填写API密钥授权、定义任务目标与上下文,以及设定执行步数等关键参数,确保Agent能精准执行任务。

随后,课程将重点转向MCP插件的安装与配置。你将深入了解MCP(Model Context Protocol)协议,它作为大模型连接外部“数据源”的重要协议,如何打破数据孤岛、降低开发成本并提升安全性。课程会手把手指导你在Dify插件市场中,精准定位并成功安装如MCP SSE和MCP Agent Strategy等关键插件。其中,MCP SSE如同Agent的“超能力雷达”,能助力其发现并调用外部工具;MCP Agent Strategy则可将MCP协议融入Workflow的Agent节点,实现“AI自主决策 + 动态调用工具”。安装完成后,你还将学习如何正确配置MCP服务地址,无论是连接本地通过Java等语言实现的MCP服务器,还是通用的MCP服务,都能轻松应对。同时,课程会结合实际案例,教你如何在Agent中关联已安装的MCP插件,完成工具授权等操作,让Dify平台借助MCP插件,与外部强大的服务无缝对接,释放出更强大的功能。 


26.MCP Server开发实践 - 服务器发送事件(SSE)代码开发实践

服务器发送事件(SSE)是MCP(Model Context Protocol)协议实现实时数据交互的核心技术,也是打通Dify平台与外部数据源的关键桥梁。本课程聚焦MCP Server中SSE的开发实践,从基础原理到代码落地,带开发者掌握实时数据推送的核心技能。

课程先解析SSE的工作机制:如何通过HTTP长连接实现服务器向客户端(如Dify的Agent)单向持续推送数据,对比WebSocket理解其轻量性与适用场景(如实时日志、增量数据返回)。随后,结合MCP协议规范,详解SSE在MCP Server中的角色——如何将外部数据源(数据库查询结果、API响应、实时监控数据)以事件流形式实时反馈给Dify,支撑Agent的动态决策。

实战环节将手把手指导代码开发:以Python(FastAPI)或Node.js为例,演示搭建支持SSE的MCP Server骨架,包括设置响应头(`Content-Type: text/event-stream`)、实现事件格式封装(`data: `前缀、换行分隔)、处理客户端连接保持与重连逻辑。同时,结合具体场景(如实时文档解析、动态工具调用结果返回),编写数据订阅、过滤、分批推送的核心代码,并集成身份验证与权限控制,确保与Dify平台的安全通信。

最后,课程会指导如何在Dify中配置MCP SSE插件,完成端到端联调,验证实时数据推送效果,帮助开发者快速构建能支撑动态交互的MCP服务,强化Dify Agent的实时响应能力。


27.MCP Server开发实践 - 可流式传输的HTTP(StreamableHttp)代码开发实践 课程简介

可流式传输的HTTP(StreamableHttp)是MCP协议中实现高效数据交互的核心技术,为Dify平台与外部服务的动态通信提供了灵活支撑。本课程聚焦StreamableHttp在MCP Server中的开发实践,帮助开发者掌握流式数据传输的实现逻辑与落地技能。

课程首先解析StreamableHttp的技术特性:区别于传统一次性响应的HTTP通信,其通过分块传输编码(Chunked Transfer Encoding)实现数据的持续流式返回,兼顾HTTP的简单性与流式传输的实时性,尤其适用于大模型推理结果、长文本生成、实时日志等场景。结合MCP协议规范,详解其在MCP Server中的作用——如何将外部工具调用结果、数据库增量查询、实时计算过程等数据,以流式方式逐步反馈给Dify的Agent,支撑Agent的渐进式决策与响应。

实战环节将以具体编程语言(如Python/Flask、Java/Spring Boot)为例,手把手指导开发:从搭建基础HTTP服务框架,到配置分块传输响应头(`Transfer-Encoding: chunked`),再到实现数据分片生成、缓冲控制、异常中断处理的核心代码。结合实际场景(如流式文档解析、分步工具调用结果返回),演示如何根据Dify的请求参数动态调整流传输速率、设置数据分隔标识,并集成超时控制与身份校验,确保与Dify平台的稳定通信。

最后,课程将指导如何在Dify中配置对应的MCP插件,完成StreamableHttp服务与Dify Agent的端到端联调,验证流式数据传输的连续性与可靠性,助力开发者构建高效、实时的外部数据交互通道,强化Dify处理长时任务与动态响应的能力。

28.MCP Client代码开发实践和Cherry Studio、Dify平台集成MCP 课程简介

MCP(Model Context Protocol)客户端是连接AI应用平台与MCP服务器的关键接口,本课程聚焦MCP Client的开发实践及其在Cherry Studio、Dify两大平台的集成落地,帮助开发者打通“客户端-服务器-应用平台”的全链路数据交互。
 一、MCP Client代码开发核心实践
课程先解析MCP Client的核心职责:基于MCP协议规范,实现与MCP Server的双向通信(请求发起、流式数据接收、协议格式解析),适配SSE/StreamableHttp等传输模式。实战环节以Python(requests/aiohttp)或Java为例,手把手开发客户端骨架:
- 封装协议格式(事件类型、数据结构、状态码),处理流式响应的分帧解析与缓存;
- 实现连接管理(超时控制、自动重连、身份认证),保障与MCP Server的稳定通信;
- 集成业务逻辑(如数据过滤、格式转换),将服务器返回的原始流数据转化为平台可直接使用的结构化信息。

 二、与Cherry Studio集成MCP
Cherry Studio作为低代码AI应用开发平台,集成MCP可快速扩展外部数据能力。课程将演示:
- 在Cherry Studio的工作流编辑器中,通过插件配置MCP Client参数(服务器地址、认证密钥、传输模式);
- 设计“MCP调用节点”,将客户端嵌入AI工作流(如智能体任务、数据处理流程),实现实时拉取外部服务数据(如数据库查询、工具调用结果);
- 调试与优化:解决数据同步延迟、格式兼容问题,确保MCP Client与Cherry Studio的低代码组件无缝协同。

三、与Dify平台集成MCP
Dify的Agent与工具链通过MCP Client可深度对接外部资源。课程将重点讲解:
- 在Dify平台配置MCP Client插件,关联已开发的客户端代码,作为Agent调用外部MCP Server的“数据桥梁”;
- 在Agent策略中绑定MCP Client,实现动态数据订阅(如实时文档更新、第三方API增量响应),支撑Agent的实时决策与多轮交互;
- 端到端验证:通过具体场景(如实时舆情分析、动态工具调用)测试集成效果,优化流式数据处理效率。
通过本课程,开发者将掌握从MCP Client开发到多平台集成的完整技能,让AI应用突破数据边界,灵活调用外部服务能力,强化智能交互的实时性与扩展性。

第七部分:AI智能体开发实践课,从0到1实操全掌握

 29.Dify平台整体功能操作实践  


全面解锁Dify平台功能!从平台基础操作界面认知,到项目创建、智能体配置、工作流编排,再到功能联调与部署,完整演示Dify平台各模块实操流程。帮你快速上手这款工具,利用平台能力高效搭建AI应用,降低开发门槛。  

 30.Dify平台知识库管理模块操作实践  


专注Dify平台知识库管理!详解知识库创建、文档上传、知识分类、检索优化等操作。教你如何构建高质量知识库,让AI智能体精准调用知识,解决业务问答、内容推荐等场景需求,掌握知识驱动AI应用的核心技能。  

 31.智能客服知识问答助手AI智能体开发操作实践

 
围绕智能客服场景,专攻知识问答助手AI智能体开发。从需求梳理、知识体系构建,到智能体对话逻辑设计、多轮问答优化,结合实际客服案例实操。教你打造能精准答疑、高效服务的智能客服助手,提升业务接待效率与用户体验。  

 32.大模型预测AI智能体应用落地工作流开发操作实践  


聚焦大模型预测场景,拆解AI智能体应用落地工作流开发全流程。从需求分析到功能实现,手把手教你借助大模型能力,搭建高效预测工作流,掌握智能体在实际业务中落地的关键操作,让模型预测从理论走向可执行的应用方案。  

 33.从0到1实操:AI智能体工作流开发操作实践  


专为0基础或想系统搭建AI智能体工作流的学习者设计。从基础概念破冰,逐步讲解工作流设计逻辑、开发步骤、调试优化,全程实操演示,带你走完“从无到有”开发AI智能体工作流的完整路径,快速具备独立开发简单工作流的能力。  

 34.预测类AI算法模型训练和预测API代码开发实践  


深入预测类AI算法核心,涵盖模型训练全流程(数据预处理、算法选型、训练调优 ),并重点讲解预测API代码开发。通过真实案例实操,教你用代码实现算法模型落地,让训练好的模型能通过API对外提供预测服务,打通算法到应用的关键环节。  


 35.多模态大模型AI智能体工作流开发实践  


拥抱多模态趋势,聚焦多模态大模型驱动的AI智能体工作流开发。涵盖图像、文本、语音等多模态数据处理,讲解工作流中多模态任务串联、交互逻辑设计,通过案例实操,让你掌握开发能处理复杂多模态场景的智能体工作流技能 。


为什么选择这门课程?四大核心优势

权威性与实用性兼具:作者陈敬雷深耕 AI 领域多年,课程内容基于《GPT 多模态大模型与 AI Agent 智能体》一书,结合京东图书配套视频,理论与实践深度结合。

理论与实战紧密融合:每个知识点都配套代码实践,从原理理解到动手操作无缝衔接,避免 “纸上谈兵”,学完就能上手应用。

内容全面且聚焦核心:覆盖大模型技术全链条关键内容,不冗余、不零散,直击技术核心,让学习更高效。

紧跟技术发展步伐:聚焦 GPT、AGI 等前沿热点,解析最新技术现象与原理,确保所学内容不过时,贴合行业发展需求。

适合人群:

人工智能开发者、学习者,想系统掌握大模型技术原理与实践技能;

企业技术人员,需规划大模型应用与开发方向,推动业务落地;

高校师生、科研人员,从事大模型相关研究,寻求理论与实践结合的学习资源;

对 AI 技术充满热情,希望紧跟前沿,提升自身竞争力的职场人士。

四、老师介绍

陈敬雷  充电了么创始人,CEO兼CTO

陈敬雷,北京充电了么科技有限公司创始人,CEO兼CTO,十几年互联网从业经验,曾就职于用友网络、中软集团、凡客诚品、唯品会、猎聘、人民日报(灵思云途)、北京万朝科技,曾任架构师、首席技术官、首席科学家等职务,对业务领域B端、C端、电商、职场社交招聘、内容文娱、营销行业都有着丰富的经验,在技术领域,尤其在大数据和人工智能方向有丰富的算法工程落地实战经验,其中在猎聘任职期间主导的推荐算法系统项目获得公司优秀项目奖,推荐效果得到5倍的提升。

此外,陈敬雷著有清华大学出版社四本人工智能书籍,分别是《分布式机器学习实战》《自然语言处理原理与实战》《GPT多模态大模型与AI Agent智能体》《DeepSeek大模型与具身智能实践》,颇受好评。同时陈敬雷还是知名大数据人工智能讲师,研发了上百门课程,总计有30万学员。

五、《GPT多模态大模型与AI Agent智能体》书籍配套视频课程介绍:

陈敬雷老师的京东自营书名标题: GPT多模态大模型与AI Agent智能体(跟我一起学人工智能)
《GPT多模态大模型与AI Agent智能体》(跟我一起学人工智能)是一本2025年清华大学出版社出版的图书,作者是陈敬雷,本书深入探讨了GPT多模态大模型与AI Agent智能体的技术原理及其在企业中的应用落地。

全书共8章,从大模型技术原理切入,逐步深入大模型训练及微调,还介绍了众多国内外主流大模型。LangChain技术、RAG检索增强生成、多模态大模型等均有深入讲解。对AI Agent智能体,从定义、原理到主流框架也都进行了深入讲解。在企业应用落地方面,本书提供了丰富的案例分析,如基于大模型的对话式推荐系统、多模态搜索、NL2SQL数据即席查询、智能客服对话机器人、多模态数字人,以及多模态具身智能等。这些案例不仅展示了大模型技术的实际应用,也为读者提供了宝贵的实践经验。

本书适合对大模型、多模态技术及AI Agent感兴趣的读者阅读,也特别适合作为高等院校本科生和研究生的教材或参考书。书中内容丰富、系统,既有理论知识的深入讲解,也有大量的实践案例和代码示例,能够帮助学生在掌握理论知识的同时,培养实际操作能力和解决问题的能力。通过阅读本书,读者将能够更好地理解大模型技术的前沿发展,并将其应用于实际工作中,推动人工智能技术的进步和创新。

六、配套书籍目录:

第1章 大模型技术原理

1.1 大模型技术的起源、思想

1.2 基于Transformer的预训练语言模型

1.2.1 编码预训练语言模型

1.2.2 解码预训练语言模型

1.2.3 基于编解码架构的预训练语言模型

1.3 提示学习与指令微调

1.3.1 提示学习

1.3.2 指令微调

1.4 人类反馈强化学习

1.4.1 强化学习

1.4.2 PPO算法

1.4.3 大模型人类反馈强化学习对齐

1.5 GPT智能涌现原理与AGI通用人工智能

1.5.1 什么是智能涌现

1.5.2 思维链

1.5.3 上下文学习能力

1.5.4 指令理解

1.5.5 通用人工智能

第2章 大模型训练及微调

2.1 大模型训练概述

2.2 分布式训练的并行策略

2.2.1 数据并行

2.2.2 模型并行

2.2.3 混合并行

2.2.4 并行计算框架

2.3 预训练模型的压缩

2.3.1 模型压缩方案概述

2.3.2 结构化模型压缩策略

2.3.3 非结构化模型压缩策略

2.3.4 8位/4位量化压缩实战

2.4 大模型微调方法

2.4.1 Prefix Tuning微调

2.4.2 P-Tuning V1微调

2.4.3 P-Tuning V2微调

2.4.4 LoRA微调

2.4.5 QLoRA微调

2.5 基于旋转位置编码RoPE的长文本理解

2.5.1 RoPE技术原理

2.5.2 RoPE关键特性

第3章 主流大模型

3.1 国内大模型

3.1.1 智谱清言ChatGLM

3.1.2 百川智能

3.1.3 百度文心一言

3.1.4 阿里巴巴通义千问

3.1.5 腾讯混元

3.1.6 华为盘古

3.1.7 360智脑

3.1.8 科大讯飞星火

3.1.9 智源悟道大模型

3.1.10 月之暗面Kimi

3.1.11 复旦大学MOSS

3.1.12 零一万物

3.1.13 字节跳动豆包大模型

3.2 国外大模型

3.2.1 OpenAI GPT-4o

3.2.2 Meta LLaMA

3.2.3 Anthropic Claude

3.2.4 谷歌Gemini和开源Gemma

3.2.5 Mistral Large

3.2.6 xAI Grok

3.3 垂直类大模型

3.3.1 HuatuoGPT

3.3.2 BianQue

3.3.3 BenTsao

3.3.4 XrayGLM

3.3.5 DoctorGLM

3.3.6 ChatMed

3.3.7 度小满轩辕

3.3.8 BloombergGPT

3.3.9 LawGPT

3.3.10 LexiLaw

3.3.11 Lawyer LLaMA

3.3.12 ChatLaw

3.3.13 ChatGLM-Math

第4章 LangChain技术原理与实践

4.1 LangChain技术原理

4.2 LangChain六大核心模块

4.2.1 模型I/O

4.2.2 数据增强模块

4.2.3 链模块

4.2.4 记忆模块

4.2.5 Agent模块

4.2.6 回调处理器

第5章 RAG检索增强生成

5.1 RAG技术原理

5.1.1 RAG的概念与应用

5.1.2 RAG技术架构

5.1.3 分块和向量化

5.1.4 搜索索引

5.1.5 重新排序和过滤

5.1.6 查询转换与路由

5.1.7 RAG中的Agent智能体

5.1.8 响应合成器

5.1.9 大模型微调和RAG优劣势对比

5.2 文本向量模型

5.2.1 Embedding模型、Reranker模型及ColBERT模型

5.2.2 阿里巴巴GTE向量模型

5.2.3 中文acge_text_embedding模型

5.2.4 智源中英文语义向量模型BGE

5.2.5 Moka开源文本嵌入模型M3E

5.2.6 OpenAI的text-embedding模型

5.3 向量数据库

5.3.1 Faiss

5.3.2 Milvus

5.3.3 Pinecone

5.3.4 Chroma

5.4 RAG应用实践

5.4.1 基于大模型构建企业私有数据的知识问答

5.4.2 应对大模型落地挑战的优化策略

第6章 多模态大模型

6.1 多模态基础模型

6.1.1 多模态对齐、融合和表示

6.1.2 CLIP

6.1.3 BLIP

6.1.4 BLIP-2

6.1.5 InstructBLIP和X-InstructBLIP

6.1.6 SAM

6.1.7 OpenFlamingo

6.1.8 VideoChat

6.1.9 PaLM-E

6.2 OpenAI多模态大模型DALL·E 3、GPT-4V、GPT-4o、Sora

6.2.1 文生图多模态大模型DALL·E 3

6.2.2 GPT-4V

6.2.3 端到端训练多模态大模型GPT-4o技术原理

6.2.4 文生视频多模态大模型Sora

6.3 通义千问多模态大模型

6.3.1 开源Qwen-VL和Qwen-VL-Chat

6.3.2 Qwen-VL-Plus和Qwen-VL-Max

6.4 开源端到端训练多模态大模型LLaVA

6.4.1 LLaVA

6.4.2 LLaVA-1.5

6.4.3 LLaVA-1.6

6.4.4 MoE-LLaVA

6.4.5 LLaVA-Plus

6.4.6 Video-LLaVA和LLaVA-NeXT-Video

6.5 零一万物多模态大模型Yi-VL系列

6.5.1 Yi-VL系列模型架构

6.5.2 Yi-VL系列模型训练微调及推理

6.6 清华系多模态大模型

6.6.1 VisualGLM-6B

6.6.2 CogVLM2

6.6.3 CogAgent

6.6.4 CogView、CogVideo和CogVideoX

6.6.5 CogCoM

6.6.6 GLM-4V-9B

第7章 AI Agent智能体

7.1 AI Agent智能体介绍和原理

7.1.1 AI Agent的定义与角色

7.1.2 AI Agent技术原理

7.2 主流大模型Agent框架

7.2.1 AutoGPT

7.2.2 MetaGPT

7.2.3 ChatDev

7.2.4 AutoGen

7.2.5 FastGPT

7.2.6 XAgent

7.2.7 GPT-Engineer

7.2.8 BabyAGI

7.2.9 SuperAGI

第8章 大模型在企业应用中落地

8.1 基于大模型的对话式推荐系统

8.1.1 基于大模型的对话式推荐系统技术架构设计

8.1.2 推荐AI Agent智能体

8.1.3 面向推荐的语言表达模型

8.1.4 知识插件

8.1.5 基于大模型的推荐解释

8.1.6 对话式推荐系统的新型评测方法

8.2 多模态搜索

8.2.1 多模态搜索技术架构设计

8.2.2 多模态搜索关键技术

8.2.3 多模态实时搜索与个性化推荐

8.3 基于自然语言交互的NL2SQL数据即席查询

8.3.1 NL2SQL数据即席查询技术原理

8.3.2 NL2SQL应用实践

8.4 基于大模型的智能客服对话机器人

8.4.1 大模型智能客服对话机器人技术原理

8.4.2 AI大模型赋能提升智能客服解决率新策略

8.4.3 基于大模型的智能客服对话机器人系统搭建

8.5 多模态数字人

8.5.1 多模态数字人技术原理

8.5.2 三维建模与三维重建

8.5.3 数字人形象设计原理

8.5.4 唇形同步算法

8.5.5 NeRF、ER-NeRF与RAD-NeRF模型

8.5.6 数字人项目实践

8.6 多模态具身智能

8.6.1 多模态具身智能概念及技术路线

8.6.2 多模态感知与场景理解

8.6.3 视觉导航

8.6.4 世界模型

8.6.5 具身智能模拟器

8.6.6 多模态多感官交互具身智能大模型

8.6.7 端到端强化学习人形机器人

8.6.8 多模态通才具身智能体

 

课程目录