Llama3大模型原理代码精讲与部署微调评估实战

Llama3大模型原理代码精讲与部署微调评估实战
共65节 1051人在学 课程详情
  • 课程介绍

    • 课程介绍
  • 前置知识1:Transformer原理精讲

    • 注意力机制
    • 自注意力机制
    • Transformer的架构概述
    • Transformer Encoder的多头注意力
    • Transformer Encoder的位置编码
    • Transformer 残差链接、LayerNorm、FFN
    • Transformer Decoder
    • Transformer 训练及性能
    • Transformer机器翻译工作流程
  • 前置知识1:Transformer代码精讲(PyTorch)

    • Transformer的Encoder代码解读
    • Transformer的Decoder代码解读
    • Transformer的超参设置代码解读
    • Transformer的训练示例(人为随机数据)代码解读
    • Transformer的训练示例(德语-英语机器翻译)代码解读
    • 结合中文注释代码深入解读1
    • 结合中文注释代码深入解读2
  • 前置知识2-大模型文本生成

    • LLM推理方式
    • 文本生成模式
    • 文本生成策略
    • Token和分词器
    • 文本生成过程
    • prefill和解码阶段
    • llama3文本生成过程
    • 文本生成时的QKV含义
  • 前置知识3-大模型微调原理

    • 大模型开发阶段划分
    • SFT微调
    • 微调方法(全参、冻结参数、LoRA、QLoRA)
    • LoRA微调
    • QLoRA微调
  • llama大模型进化和生态

    • llama模型进化史
    • llama3模型类型
    • llama大模型生态
  • llama3原理精讲

    • llama3模型架构
    • RMSNorm归一化
    • SwiGLU激活函数
    • RoPE旋转位置编码
    • GQA分组查询注意力
    • KVCache
  • llama3代码解析

    • 各文件功能
    • completion和chat应用脚本代码解析
    • generation.py代码解析
    • model.py代码解析
    • tokenizer.py代码解析
    • RMSNorm代码解析
    • SwiGLU代码解析
    • GQA代码解析
    • RoPE代码解析
    • KVCache代码解析
  • llama3部署实战1-ollama部署

    • 阿里云实例创建
    • ollama介绍
    • ollama安装
    • llama3推理
  • llama3部署实战2-vLLM部署

    • vLLM部署llama3
  • llama3微调项目实战1-中文增强大模型(LoRA微调)

    • llama_factory介绍
    • llama_factory安装及llama3模型下载
    • LoRA微调训练
    • llama3中文增强大模型推理
    • llama3中文增强大模型评估
    • lora文件合并
  • llama3微调项目实战2-医疗问答大模型(LoRA微调)

    • 数据集准备
    • lora微调
    • llama3医疗问答大模型推理
  • llama3微调项目实战3-医疗问答大模型(QLoRA微调)

    • qlora微调
    • qlora微调的医疗问答大模型推理

    订阅失败

    Llama3大模型原理代码精讲与部署微调评估实战
    Llama3大模型原理代码精讲与部署微调评估实战 ...

    订阅列表已满,请先移出部分订阅内容。

    当前章节需购买后观看
    开通超级会员免费看!专家精选系列课程,满足你从入门到精通!更有问答月卡免费送,你的问题有问必答!
    提交答案

    购买课程

    扫码完成付费,可继续学习全部课程内容

    加载中...
    播放页问题反馈
    视频学习中有任何产品建议都可由此反
    馈,我们将及时处理!

    课时介绍

    本课程通过理论讲解和实践操作,帮助学员全面理解并掌握Llama3这一先进的大型语言模型的原理、代码实现以及部署、微调、评估项目实战。

    课程介绍

    本课程了有关Transformer和大语言模型(LLM)的关键前置知识, 包括注意力机制、多头注意力、编码器-解码器结构等Transformer原理, 以及LLM的文本生成和LLM微调技术原理。

    在此基础上, 重点介绍了Llama 3模型的进化历程、技术原理和代码实现。其中涉及RMSNorm归一化、SwiGLU激活函数、RoPE位置编码、GQA注意力和KVCache等关键技术。通过代码解析, 深入剖析了Llama 3的架构设计和代码实现。

    在实践部分, 课程还介绍了如何在阿里云使用Ollama和vLLM部署Llama 3模型, 以及使用llama_factory工具进行基于LoRA和QLoRA的llama3 8B大模型微调。项目实战环节则提供了从准备数据集到训练、推理、评估的全流程指导, 聚焦中文增强和医疗问答两大应用方向。

    这是一门内容全面、理论实践并重的大模型课程。不仅系统讲解了LLM和Llama 3的技术原理, 还通过代码解析和实战项目深度剖析了相关技术在工程落地中的关键环节, 有助于学员全面掌握大模型相关知识和动手实战能力。

    -------------------------------------------------------------------------------

    具体课程内容如下:

    前置知识1:Transformer原理与代码精讲

    - 注意力机制:了解注意力机制如何使模型能够捕捉输入序列中不同位置之间的相关性。

    - 自注意力:解释自注意力如何允许序列的每个元素都与序列中的其他元素进行交互。

    - 多头注意力:探讨多头注意力如何通过并行处理多个注意力层来增强模型的能力。

    - 位置编码:学习位置编码如何为模型提供序列中单词的位置信息。

    - 编码器和解码器:深入分析Transformer的编码器和解码器结构,以及它们在模型中的作用。

    - 层归一化(LayerNorm)和前馈网络(FFN):介绍这两种技术如何帮助稳定和增强模型的训练过程。

    - 代码精讲:讲解Transformer模型的PyTorch代码实现细节等。

     前置知识2:大模型(LLM)文本生成

    - LLM的推理方式

    - LLM的文本生成模式: 主要有Completion模式和Chat模式两种

    - LLM的文本生成策略: 包括贪婪搜索、束搜索、随机采样、温度采样、Top-k采样和Top-p采样等

    - LLM中的Token与分词器

    - llama3的文本生成过程

    - LLM文本生成的预填充和解码阶段

    - LLM文本生成中的Q、K、V机制

     前置知识3:大模型微调原理

    - LLM的开发流程可分为预训练、有监督微调、奖励建模和强化学习四个阶段

    - 从基座模型到对话模型的转变。

    - 针对特定领域的SFT微调

    - 微调的技术方法包括全参微调、冻结微调、LoRA、QLoRA

    - LoRA技术原理和有效性

    - QLoRA技术原理

     Llama3进化史和生态

     Llama3原理精讲

    - Llama3模型架构

    - RMSNorm归一化技术

    - SwiGLU激活函数

    - RoPE旋转位置编码

    - GQA分组查询注意力

    - KVCache

     Llama3代码解析

    - 各文件功能

    - completion和chat应用脚本代码解析

    - generation.py代码解析

    - model.py代码解析

    - tokenizer.py代码解析

    - RMSNorm代码解析

    - SwiGLU代码解析

    - GQA代码解析

    - RoPE代码解析

    - KVCache代码解析

     Llama3部署

    - Ollama部署llama3-阿里云免费GPU算力领取及实例创建、ollama安装、llama3推理

    - VLLM部署llama3

     Llama3项目实战1-llama_factory微调llama3中文增强大模型

    - llama_factory介绍

    - llama_factory安装及llama3模型下载

    - LoRA微调训练llama3 8B Instruct模型

    - llama3中文增强大模型推理

    - llama3中文增强大模型评估(MMLU, CEVAL, CMMLU)

    - LoRA文件合并

     Llama3项目实战2-llama_factory微调llama3医疗问答大模型(LoRA)

    - 准备医疗问答大模型数据集

    - LoRA微调训练llama3 8B Instruct模型

    - llama3医疗问答大模型推理

     Llama3项目实战3-llama_factory微调llama3医疗问答大模型(QLoRA)

    - QLoRA微调训练llama3 8B Instruct模型

    - llama3医疗问答大模型推理

    -----------------------------------------------------------------------------------

    购课后可加入课程学习QQ群:364717673

    推荐课程

    信息系统项目管理师自考笔记

    李明 · 915人在学

    python从0到1:期货量化交易系统(CTP实战,高频及合成K线数据

    王先生 · 22813人在学

    手把手搭建Java超市管理系统【附源码】(毕设)

    汤小洋 · 4294人在学

    Java毕设springboot外卖点餐系统 毕业设计毕设源码 使用教

    黄菊华 · 838人在学

    基于SSM酒店管理系统(毕设)

    小尼老师 · 899人在学

    java项目实战之购物商城(java毕业设计)

    Long · 5203人在学

    手把手搭建Java求职招聘系统【附源码】(毕设)

    汤小洋 · 1532人在学

    Python Django 深度学习 小程序

    钟翔 · 2409人在学

    城管局门前三包管理系统+微信小程序(vue+springboot)

    赖国荣 · 681人在学

    Vue+Uni-app(uniapp)入门与实战+赠送仿美团点餐小程序

    李杰 · 4076人在学

    正在试验
    后自动删除环境
    课程实验
    本次实验时间已到期 00:00:00
    课件正在飞速打包中,请耐心等待几秒钟~