精通 Dify台操作,玩转 AI 智能体、工作流开发,轻松落地企业级 AI 应用
掌握 MCP 协议开发,打通大模型与外部数据交互,让智能体具备实时响应能力
吃透 DeepSeek 大模型部署与微调,低成本搭建专属垂类 AI,攻克本地化落地难题
从环境搭建到模型训练全流程上手,成为兼具平台操作与代码开发能力的 AI 实战派
你将收获
精通 Dify台操作,玩转 AI 智能体、工作流开发,轻松落地企业级 AI 应用
掌握 MCP 协议开发,打通大模型与外部数据交互,让智能体具备实时响应能力
吃透 DeepSeek 大模型部署与微调,低成本搭建专属垂类 AI,攻克本地化落地难题
从环境搭建到模型训练全流程上手,成为兼具平台操作与代码开发能力的 AI 实战派
适用人群
课程介绍
一、课程优势
本课程有陈敬雷老师的清华大学出版社配套新书教材《GPT多模态大模型与AI Agent智能体》(跟我一起学人工智能)。
新书配合此实战课程结合学习,一静一动,互补高效学习!
本课程由互联网一线知名大牛陈敬雷老师全程亲自授课,技术前沿热门,是真正的互联网工业级实战项目。
二、课程简介
GPT-5多模态大模型、MCP、AI Agent智能体、DeepSeek、Dify、扣子Coze、RAG、Sora……这些不断刷屏的前沿技术正持续引爆AI领域,掀起一轮又一轮创新浪潮。你是否也渴望穿透技术表象,直抵核心本质?是否想系统梳理发展脉络,不再被碎片化信息裹挟?
在 Dify AI 智能体平台实操浪潮里,MCP、RAG 知识库集成、DeepSeek 模型调用、通义千问交互设计等 AI 应用操作,正重塑业务落地场景。想穿透平台技术表象,直抵 Dify 智能体开发、多模型融合核心?想摆脱碎片化摸索,系统掌握从 0 到 1 落地 AI 应用的实操路径?这门 Dify AI 智能体平台实战课专为你打造!从基础组件逻辑到多模型协同部署,从 RAG 与大模型结合到行业场景落地,深度拆解 Dify 平台实操体系,教你用 Dify 融合多技术把 AI 创意变成真实生产力,在智能应用浪潮里精准卡位、高效实操!
课程核心亮点:从根源到前沿,锻造硬核 AI 技能
课程模块详解:体系化学习,收获明确
第一章:AI Agent智能体、Dify平台、工作流开发等操作实践
1.Dify平台基础环境搭建-Docker和WSL安装操作实践
本课程聚焦Dify/Coze平台基础环境搭建,深入讲解 Docker 与 WSL 安装实操。从 Windows 系统下以管理员身份运行命令行安装 WSL,开启 Hyper-V 功能,到官网下载安装 Docker Desktop,并巧妙配置镜像源提升下载速度,每一步都有详细演示与指导。同时,课程会给出下载 Dify 并启动的具体步骤,帮助你快速搭建起 Dify 运行所需的基础环境,为后续深入探索 Dify 平台强大功能筑牢根基,无论是编程新手还是 AI 爱好者,都能轻松上手 。
2.最新Dify源码平台安装实操和核心架构全流程拆解
本课程围绕最新 Dify 源码平台展开,为你呈上全面的安装实操与核心架构拆解。从前期环境准备,像不同系统下 Docker、Docker Compose 及 Git 的安装配置,到一步步克隆 Dify 代码,启动中间件服务,再到细致地配置并运行后端 API 服务与前端 Web 服务,每一个安装环节都有详细步骤演示与深度讲解,助你顺利搭建 Dify 平台。
在核心架构拆解部分,课程深入剖析 Dify 的六大功能层。从负责任务调度与逻辑处理的核心业务层,到提供交互界面的交互与展示层;从承担数据存储与缓存功能的数据存储与缓存层,到赋予平台 AI 能力的 AI 能力层;还有保障网络安全与请求转发的网络与安全层,以及用于隔离测试的隔离与测试层,帮你透彻理解各层容器的作用及协同工作机制。无论你是想基于 Dify 开发 AI 应用的开发者,还是对其架构原理感兴趣的技术爱好者,本课程都能让你收获满满,为后续深入应用 Dify 平台奠定坚实基础 。
3.Dify集成DeepSeek和阿里通义千问等大模型底座插件安装
想拓展 Dify 平台的大模型能力吗?本课程聚焦 Dify 集成 DeepSeek、阿里通义千问等大模型底座插件的安装实操。从前期准备,如获取对应模型 API Key、检查 Dify 市场插件可用性,到安装环节,细致演示在 Dify 市场中精准定位并下载 DeepSeek、通义千问插件(规避版本报错问题),再到关键的配置阶段,指导你在 Dify 系统内正确填入 API Key,开启所需模型开关。同时,深入剖析不同插件与 Dify 现有架构的融合逻辑,助你理解安装后如何让新模型在 Dify 平台上稳定运行、高效协作,轻松为 Dify 增添多元大模型支持,拓展应用开发边界 。
4.Dify平台 - 配置Agent策略及MCP插件
在Dify平台强大的生态体系中,合理配置Agent策略与安装MCP插件,能极大拓展其功能边界,为AI应用开发带来更多可能。本课程将深入聚焦这两大关键板块,助力开发者全面掌握相关实操技能。
课程开篇,会为你详细阐释Agent策略的核心概念与在Dify平台中的关键作用。通过直观的演示,你将学习如何在Dify的Chatflow/Workflow编辑器内,精准拖拽Agent节点至画布,并深入理解Function Calling和ReAct等内置策略的差异,依据不同业务场景做出选择。例如,在处理明确的任务需求时,Function Calling可快速调用外部函数,实现高效响应;而ReAct策略则适用于需要多步推理、交替思考与行动的复杂场景。同时,课程会细致讲解如何在节点配置面板中,针对所选策略,合理设置驱动大语言模型、添加并配置可调用工具、填写API密钥授权、定义任务目标与上下文,以及设定执行步数等关键参数,确保Agent能精准执行任务。
5.Dify平台整体功能操作实践
全面解锁Dify平台功能!从平台基础操作界面认知,到项目创建、智能体配置、工作流编排,再到功能联调与部署,完整演示Dify平台各模块实操流程。帮你快速上手这款工具,利用平台能力高效搭建AI应用,降低开发门槛。
6.Dify平台知识库管理模块操作实践
专注Dify平台知识库管理!详解知识库创建、文档上传、知识分类、检索优化等操作。教你如何构建高质量知识库,让AI智能体精准调用知识,解决业务问答、内容推荐等场景需求,掌握知识驱动AI应用的核心技能。
7.智能客服知识问答助手AI智能体开发操作实践
围绕智能客服场景,专攻知识问答助手AI智能体开发。从需求梳理、知识体系构建,到智能体对话逻辑设计、多轮问答优化,结合实际客服案例实操。教你打造能精准答疑、高效服务的智能客服助手,提升业务接待效率与用户体验。
8.大模型预测AI智能体应用落地工作流开发操作实践
聚焦大模型预测场景,拆解AI智能体应用落地工作流开发全流程。从需求分析到功能实现,手把手教你借助大模型能力,搭建高效预测工作流,掌握智能体在实际业务中落地的关键操作,让模型预测从理论走向可执行的应用方案。
9.从0到1实操:AI智能体工作流开发操作实践
专为0基础或想系统搭建AI智能体工作流的学习者设计。从基础概念破冰,逐步讲解工作流设计逻辑、开发步骤、调试优化,全程实操演示,带你走完“从无到有”开发AI智能体工作流的完整路径,快速具备独立开发简单工作流的能力。
10.预测类AI算法模型训练和预测API代码开发实践
深入预测类AI算法核心,涵盖模型训练全流程(数据预处理、算法选型、训练调优 ),并重点讲解预测API代码开发。通过真实案例实操,教你用代码实现算法模型落地,让训练好的模型能通过API对外提供预测服务,打通算法到应用的关键环节。
11.多模态大模型AI智能体工作流开发实践
拥抱多模态趋势,聚焦多模态大模型驱动的AI智能体工作流开发。涵盖图像、文本、语音等多模态数据处理,讲解工作流中多模态任务串联、交互逻辑设计,通过案例实操,让你掌握开发能处理复杂多模态场景的智能体工作流技能 。
第二章: MCP(大模型上下文协议)代码开发实践
12.MCP Server开发实践 - 服务器发送事件(SSE)代码开发实践
服务器发送事件(SSE)是MCP(Model Context Protocol)协议实现实时数据交互的核心技术,也是打通Dify平台与外部数据源的关键桥梁。本课程聚焦MCP Server中SSE的开发实践,从基础原理到代码落地,带开发者掌握实时数据推送的核心技能。
课程先解析SSE的工作机制:如何通过HTTP长连接实现服务器向客户端(如Dify的Agent)单向持续推送数据,对比WebSocket理解其轻量性与适用场景(如实时日志、增量数据返回)。随后,结合MCP协议规范,详解SSE在MCP Server中的角色——如何将外部数据源(数据库查询结果、API响应、实时监控数据)以事件流形式实时反馈给Dify,支撑Agent的动态决策。
13.MCP Server开发实践 - 可流式传输的HTTP(StreamableHttp)代码开发实践
可流式传输的HTTP(StreamableHttp)是MCP协议中实现高效数据交互的核心技术,为Dify平台与外部服务的动态通信提供了灵活支撑。本课程聚焦StreamableHttp在MCP Server中的开发实践,帮助开发者掌握流式数据传输的实现逻辑与落地技能。
14.MCP Client代码开发实践和Cherry Studio、Dify平台集成MCP 课程简介
MCP(Model Context Protocol)客户端是连接AI应用平台与MCP服务器的关键接口,本课程聚焦MCP Client的开发实践及其在Cherry Studio、Dify两大平台的集成落地,帮助开发者打通“客户端-服务器-应用平台”的全链路数据交互。
第三章:DeepSeek大模型企业应用落地实践
15. Ollama 框架详解:本地部署 DeepSeek 大模型实战指南
核心内容:深度剖析 Ollama 框架,从安装到配置,一步步教你在本地部署 DeepSeek 大模型,涵盖模型下载、运行及管理等实操环节。
学习受益:掌握 Ollama 框架运用,能独立在本地部署 DeepSeek 大模型,降低模型使用成本,保障数据隐私,提升自然语言处理效率。
16. Ollama 安装与 DeepSeek 大模型部署全流程操作实践
核心内容:全面覆盖 Ollama 在不同系统的安装方法,以及 DeepSeek 大模型从选型到部署的完整流程,包含硬件适配、版本选择及部署后测试。
学习受益:通过实践掌握 Ollama 与 DeepSeek 大模型部署技能,可依自身需求灵活搭建模型环境,为 AI 相关工作、学习筑牢基础。
17. Open WebUI 全方位解析:自托管 AI 平台功能与应用
核心内容:详细解读 Open WebUI 自托管 AI 平台,介绍其安装方式、多模型兼容特性、权限管理及丰富的功能模块,如 RAG 集成等。
学习受益:学会运用 Open WebUI 搭建个性化 AI 平台,利用其丰富功能提升大模型交互体验,满足企业级或个人多样化 AI 应用需求 。
18. 基于Unsloth的DeepSeek训练微调核心工具
核心内容:基于 Unsloth 对 DeepSeek 模型,优化训练效率与内存占用,适配多场景部署,支持灵活导出与定制。
学员收益:掌握高效微调 DeepSeek 的方法,降低硬件门槛,提升模型落地能力,助力科研与企业应用。
19. DeepSeek-R1训练微调代码实践
核心内容:DeepSeek-R1高效训练微调,结合医学 COT思维链 数据集,实操 LoRA、量化压缩,实现专业领域推理大模型问答全流程。
学员收益:快速掌握数据处理到部署全流程,攻克大模型微调痛点,获得医学垂类模型训练实战能力。然后举一反三,相同代码可以应用到其他行业。
20. 吃透 DeepSeek-R1:模型文件全解析与实战指南
核心内容:解析架构与训练机制,详解 163 个分片文件及配置、分词器,含多领域实战案例。
学员收益:掌握模型原理与优化,提升实战能力,拓宽职业路,培养逻辑与创新思维。
21. 本地运行DeepSeek-R1满血版大模型
核心内容:涵盖硬件配置(多高端 GPU 等)、环境部署、模型下载与调优,及推理测试全流程。
学员收益:掌握本地部署技能,实现隐私数据处理,降低依赖,提升大模型实战与优化能力。!
为什么选择这门课程?四大核心优势
权威性与实用性兼具:作者陈敬雷深耕 AI 领域多年,课程内容基于《GPT 多模态大模型与 AI Agent 智能体》一书,结合京东图书配套视频,理论与实践深度结合。
理论与实战紧密融合:每个知识点都配套代码实践,从原理理解到动手操作无缝衔接,避免 “纸上谈兵”,学完就能上手应用。
内容全面且聚焦核心:覆盖大模型技术全链条关键内容,不冗余、不零散,直击技术核心,让学习更高效。
紧跟 AI 应用落地浪潮:聚焦 Dify 平台核心操作,深耕 MCP 框架搭建、RAG 知识库集成、DeepSeek 与通义千问模型调用、多模型协同部署等实操热点,拆解平台最新功能与技术融合逻辑,确保所学直接对接 Dify 实操场景,贴合用多技术落地 AI 应用的行业需求。
三、老师介绍
陈敬雷 充电了么创始人,CEO兼CTO
陈敬雷,北京充电了么科技有限公司创始人,CEO兼CTO,十几年互联网从业经验,曾就职于用友网络、中软集团、凡客诚品、唯品会、猎聘、人民日报(灵思云途)、北京万朝科技,曾任架构师、首席技术官、首席科学家等职务,对业务领域B端、C端、电商、职场社交招聘、内容文娱、营销行业都有着丰富的经验,在技术领域,尤其在大数据和人工智能方向有丰富的算法工程落地实战经验,其中在猎聘任职期间主导的推荐算法系统项目获得公司优秀项目奖,推荐效果得到5倍的提升。
此外,陈敬雷著有清华大学出版社四本人工智能书籍,分别是《分布式机器学习实战》《自然语言处理原理与实战》《GPT多模态大模型与AI Agent智能体》《DeepSeek大模型与具身智能实践》,颇受好评。同时陈敬雷还是知名大数据人工智能讲师,研发了上百门课程,总计有30万学员。
四、《GPT多模态大模型与AI Agent智能体》书籍配套视频课程介绍:
陈敬雷老师的京东自营书名标题: GPT多模态大模型与AI Agent智能体(跟我一起学人工智能)
《GPT多模态大模型与AI Agent智能体》(跟我一起学人工智能)是一本2025年清华大学出版社出版的图书,作者是陈敬雷,本书深入探讨了GPT多模态大模型与AI Agent智能体的技术原理及其在企业中的应用落地。
全书共8章,从大模型技术原理切入,逐步深入大模型训练及微调,还介绍了众多国内外主流大模型。LangChain技术、RAG检索增强生成、多模态大模型等均有深入讲解。对AI Agent智能体,从定义、原理到主流框架也都进行了深入讲解。在企业应用落地方面,本书提供了丰富的案例分析,如基于大模型的对话式推荐系统、多模态搜索、NL2SQL数据即席查询、智能客服对话机器人、多模态数字人,以及多模态具身智能等。这些案例不仅展示了大模型技术的实际应用,也为读者提供了宝贵的实践经验。
本书适合对大模型、多模态技术及AI Agent感兴趣的读者阅读,也特别适合作为高等院校本科生和研究生的教材或参考书。书中内容丰富、系统,既有理论知识的深入讲解,也有大量的实践案例和代码示例,能够帮助学生在掌握理论知识的同时,培养实际操作能力和解决问题的能力。通过阅读本书,读者将能够更好地理解大模型技术的前沿发展,并将其应用于实际工作中,推动人工智能技术的进步和创新。
五、配套书籍目录:
第1章 大模型技术原理
1.1 大模型技术的起源、思想
1.2 基于Transformer的预训练语言模型
1.2.1 编码预训练语言模型
1.2.2 解码预训练语言模型
1.2.3 基于编解码架构的预训练语言模型
1.3 提示学习与指令微调
1.3.1 提示学习
1.3.2 指令微调
1.4 人类反馈强化学习
1.4.1 强化学习
1.4.2 PPO算法
1.4.3 大模型人类反馈强化学习对齐
1.5 GPT智能涌现原理与AGI通用人工智能
1.5.1 什么是智能涌现
1.5.2 思维链
1.5.3 上下文学习能力
1.5.4 指令理解
1.5.5 通用人工智能
第2章 大模型训练及微调
2.1 大模型训练概述
2.2 分布式训练的并行策略
2.2.1 数据并行
2.2.2 模型并行
2.2.3 混合并行
2.2.4 并行计算框架
2.3 预训练模型的压缩
2.3.1 模型压缩方案概述
2.3.2 结构化模型压缩策略
2.3.3 非结构化模型压缩策略
2.3.4 8位/4位量化压缩实战
2.4 大模型微调方法
2.4.1 Prefix Tuning微调
2.4.2 P-Tuning V1微调
2.4.3 P-Tuning V2微调
2.4.4 LoRA微调
2.4.5 QLoRA微调
2.5 基于旋转位置编码RoPE的长文本理解
2.5.1 RoPE技术原理
2.5.2 RoPE关键特性
第3章 主流大模型
3.1 国内大模型
3.1.1 智谱清言ChatGLM
3.1.2 百川智能
3.1.3 百度文心一言
3.1.4 阿里巴巴通义千问
3.1.5 腾讯混元
3.1.6 华为盘古
3.1.7 360智脑
3.1.8 科大讯飞星火
3.1.9 智源悟道大模型
3.1.10 月之暗面Kimi
3.1.11 复旦大学MOSS
3.1.12 零一万物
3.1.13 字节跳动豆包大模型
3.2 国外大模型
3.2.1 OpenAI GPT-4o
3.2.2 Meta LLaMA
3.2.3 Anthropic Claude
3.2.4 谷歌Gemini和开源Gemma
3.2.5 Mistral Large
3.2.6 xAI Grok
3.3 垂直类大模型
3.3.1 HuatuoGPT
3.3.2 BianQue
3.3.3 BenTsao
3.3.4 XrayGLM
3.3.5 DoctorGLM
3.3.6 ChatMed
3.3.7 度小满轩辕
3.3.8 BloombergGPT
3.3.9 LawGPT
3.3.10 LexiLaw
3.3.11 Lawyer LLaMA
3.3.12 ChatLaw
3.3.13 ChatGLM-Math
第4章 LangChain技术原理与实践
4.1 LangChain技术原理
4.2 LangChain六大核心模块
4.2.1 模型I/O
4.2.2 数据增强模块
4.2.3 链模块
4.2.4 记忆模块
4.2.5 Agent模块
4.2.6 回调处理器
第5章 RAG检索增强生成
5.1 RAG技术原理
5.1.1 RAG的概念与应用
5.1.2 RAG技术架构
5.1.3 分块和向量化
5.1.4 搜索索引
5.1.5 重新排序和过滤
5.1.6 查询转换与路由
5.1.7 RAG中的Agent智能体
5.1.8 响应合成器
5.1.9 大模型微调和RAG优劣势对比
5.2 文本向量模型
5.2.1 Embedding模型、Reranker模型及ColBERT模型
5.2.2 阿里巴巴GTE向量模型
5.2.3 中文acge_text_embedding模型
5.2.4 智源中英文语义向量模型BGE
5.2.5 Moka开源文本嵌入模型M3E
5.2.6 OpenAI的text-embedding模型
5.3 向量数据库
5.3.1 Faiss
5.3.2 Milvus
5.3.3 Pinecone
5.3.4 Chroma
5.4 RAG应用实践
5.4.1 基于大模型构建企业私有数据的知识问答
5.4.2 应对大模型落地挑战的优化策略
第6章 多模态大模型
6.1 多模态基础模型
6.1.1 多模态对齐、融合和表示
6.1.2 CLIP
6.1.3 BLIP
6.1.4 BLIP-2
6.1.5 InstructBLIP和X-InstructBLIP
6.1.6 SAM
6.1.7 OpenFlamingo
6.1.8 VideoChat
6.1.9 PaLM-E
6.2 OpenAI多模态大模型DALL·E 3、GPT-4V、GPT-4o、Sora
6.2.1 文生图多模态大模型DALL·E 3
6.2.2 GPT-4V
6.2.3 端到端训练多模态大模型GPT-4o技术原理
6.2.4 文生视频多模态大模型Sora
6.3 通义千问多模态大模型
6.3.1 开源Qwen-VL和Qwen-VL-Chat
6.3.2 Qwen-VL-Plus和Qwen-VL-Max
6.4 开源端到端训练多模态大模型LLaVA
6.4.1 LLaVA
6.4.2 LLaVA-1.5
6.4.3 LLaVA-1.6
6.4.4 MoE-LLaVA
6.4.5 LLaVA-Plus
6.4.6 Video-LLaVA和LLaVA-NeXT-Video
6.5 零一万物多模态大模型Yi-VL系列
6.5.1 Yi-VL系列模型架构
6.5.2 Yi-VL系列模型训练微调及推理
6.6 清华系多模态大模型
6.6.1 VisualGLM-6B
6.6.2 CogVLM2
6.6.3 CogAgent
6.6.4 CogView、CogVideo和CogVideoX
6.6.5 CogCoM
6.6.6 GLM-4V-9B
第7章 AI Agent智能体
7.1 AI Agent智能体介绍和原理
7.1.1 AI Agent的定义与角色
7.1.2 AI Agent技术原理
7.2 主流大模型Agent框架
7.2.1 AutoGPT
7.2.2 MetaGPT
7.2.3 ChatDev
7.2.4 AutoGen
7.2.5 FastGPT
7.2.6 XAgent
7.2.7 GPT-Engineer
7.2.8 BabyAGI
7.2.9 SuperAGI
第8章 大模型在企业应用中落地
8.1 基于大模型的对话式推荐系统
8.1.1 基于大模型的对话式推荐系统技术架构设计
8.1.2 推荐AI Agent智能体
8.1.3 面向推荐的语言表达模型
8.1.4 知识插件
8.1.5 基于大模型的推荐解释
8.1.6 对话式推荐系统的新型评测方法
8.2 多模态搜索
8.2.1 多模态搜索技术架构设计
8.2.2 多模态搜索关键技术
8.2.3 多模态实时搜索与个性化推荐
8.3 基于自然语言交互的NL2SQL数据即席查询
8.3.1 NL2SQL数据即席查询技术原理
8.3.2 NL2SQL应用实践
8.4 基于大模型的智能客服对话机器人
8.4.1 大模型智能客服对话机器人技术原理
8.4.2 AI大模型赋能提升智能客服解决率新策略
8.4.3 基于大模型的智能客服对话机器人系统搭建
8.5 多模态数字人
8.5.1 多模态数字人技术原理
8.5.2 三维建模与三维重建
8.5.3 数字人形象设计
8.5.4 唇形同步算法
8.5.5 NeRF、ER-NeRF与RAD-NeRF模型
8.5.6 数字人项目实践
8.6 多模态具身智能
8.6.1 多模态具身智能概念及技术路线
8.6.2 多模态感知与场景理解
8.6.3 视觉导航
8.6.4 世界模型
8.6.5 具身智能模拟器
8.6.6 多模态多感官交互具身智能大模型
8.6.7 端到端强化学习人形机器人
8.6.8 多模态通才具身智能体
课程目录