动手学自然语言处理——从入门到精通

动手学自然语言处理——从入门到精通
共40节 7人在学 课程详情
  • 深度学习基础

    • 15分钟掌握线性回归
    • 岭回归和LASSO回归--5分钟
    • 逻辑归回的概念及对数似然损失的推导--22分钟
    • softmax分类器与交叉熵损失--19分钟
    • 源代码和数据文件
  • pyTorch深度学习框架

    • pyTorch的安装--6分钟
    • 张量的概念--6分钟
    • 张量的常见操作--10分钟
    • 张量的广播机制--7分钟
    • 张量的线性代数运算
    • 张量的形状操作--8分钟
    • 张量的自动微分计算--8分钟
    • pytorch实现线性回归和逻辑回归--32分钟
  • 神经网络基础

    • 全连接神经网络的创建和调用--17分钟
    • 神经网络常见的损失函数--18分钟
    • 神经网络的反向传播--21分钟
    • 神经网络的迭代训练--23分钟
    • 欠拟合与过拟合--19分钟
  • 文本的语义表示

    • 文本的张量表示-机器学习的方法--19分钟
    • NNLM模型训练词向量--16分钟
    • 词向量计算过程解析--16分钟
  • 循环神经网络

    • RNN神经网络的定义和使用--13分钟
    • 通过RNN实现单变量预测--19分钟
    • LSTM-GRU模型解析--18分钟
    • RNN人名分类器的代码实现--18分钟
  • 注意力机制

    • 注意力机制的概念和掩码注意力机制的实现过程-22分钟
    • 自注意力机制与多头自注意力机制的原理分析--12分钟
    • 自注意力机制运算举例--23分钟
    • 无注意力机制的编解码器网络--29分钟
    • 注意力机制的编解码器网络的实现--23分钟
    • 基于注意力机制的英译法代码讲解--27分钟
  • Transformer

    • Transformer架构的结构解析--30分钟
    • Transformer架构的结构解析--29分钟
    • 手搓transformer之编码器计算过程--27分钟
    • 手搓transformer之解码器的计算过程--36分钟
  • 预训练模型与huggingface自然语言处理库

    • bert模型结构解析--11分钟
    • Huggingface之tokenizer的使用--18分钟
    • Huggingface之datasets库的使用--25分钟
    • bert预训练模型使用示例--11分钟
    • 基于bert的中文情感分析案例--19分钟

    订阅失败

    动手学自然语言处理——从入门到精通
    动手学自然语言处理——从入门到精通 ...

    订阅列表已满,请先移出部分订阅内容。

    当前章节需购买后观看
    开通超级会员免费看!专家精选系列课程,满足你从入门到精通!更有问答月卡免费送,你的问题有问必答!
    提交答案

    购买课程

    扫码完成付费,可继续学习全部课程内容

    加载中...
    播放页问题反馈
    视频学习中有任何产品建议都可由此反
    馈,我们将及时处理!

    课时介绍

    8分钟快速掌握张亮的自动微分运算,张量的微分运算

    课程介绍

        “我不能创造的东西,我就不理解”,意思是只有通过动手实践,才能更深入地理解理论。这就是本课程命名为“动手学自然语言处理”的原因。
        第1章主要介绍自然语言处理的背景知识,包括自然语言处理的概念、主要研究任务和发展历程。
        第2章介绍了深度学习的基础知识,主要包括线性回归模型。逻辑回归模型和常用损失函数的计算。
        第3章主要介绍pytorch的使用,包括虚拟环境的管理、张量的创建、运算和常见操作;并基于pytorch框架演示了线性回归、逻辑回归模型的构建、训练和优化过程。
        第4章介绍了神经网络的基础知识,主要包括神经网络的概念、前向传播、损失计算、反向传播以及过拟合等内容,使读者对浅层神经网络的运算过程有较为全面的理解。
        第5章介绍了文本的语义表示,主要包括文本的预处理、传统的词袋表示、TF-IDF表示以及词的分布式表示,并通过案例演示了词向量的训练过程。
        第6章介绍了循环神经网络,首先介绍了RNN、LSTM和GRU神经网络的原理、内部结构和代码实现,然后介绍了基于循环神经网络的人名分类案例,最后介绍了seq2seq神经网络的原理和实现。
        第7章介绍了文本处理中的注意力机制,包括非参注意力机制、键值对注意力机制和自注意力机制,并通过英译法案例,介绍了注意力机制在seq2seq神经网络中的具体应用。
        第8章介绍了自然语言处理领域最重要的架构Transformer,对其结构进行了解析,并一步一步完成了其代码的实现,并通过具体案例演示了Transformer模型的训练过程。
        第9章介绍了huggingface以及预训练语言模型在自然语言处理中的应用,huggingface是一个开源的自然语言处理服务平台,提供了大量的预训练模型、工具和数据集,本章基于bert-base-chinese和hfl/rb3预训练模型完成了情感分类、完型填空和中文命名实体识别等常见的本文处理任务,并对大模型在自然语言处理中的应用进行了展望。

    推荐课程

    信息系统项目管理师自考笔记

    李明 · 915人在学

    python从0到1:期货量化交易系统(CTP实战,高频及合成K线数据

    王先生 · 22801人在学

    手把手搭建Java超市管理系统【附源码】(毕设)

    汤小洋 · 4294人在学

    Java毕设springboot外卖点餐系统 毕业设计毕设源码 使用教

    黄菊华 · 838人在学

    基于SSM酒店管理系统(毕设)

    小尼老师 · 899人在学

    java项目实战之购物商城(java毕业设计)

    Long · 5203人在学

    手把手搭建Java求职招聘系统【附源码】(毕设)

    汤小洋 · 1532人在学

    Python Django 深度学习 小程序

    钟翔 · 2406人在学

    城管局门前三包管理系统+微信小程序(vue+springboot)

    赖国荣 · 681人在学

    Vue+Uni-app(uniapp)入门与实战+赠送仿美团点餐小程序

    李杰 · 4075人在学

    正在试验
    后自动删除环境
    课程实验
    本次实验时间已到期 00:00:00
    课件正在飞速打包中,请耐心等待几秒钟~