4
201

你将收获

了解一些背景知识,包括Word Embedding、RNN/LSTM/GRU、Seq2Seq模型和Attention机制等。

了解BERT的基础Transformer模型

适用人群

需要基本的机器学习和深度学习知识,了解Word Embedding、RNN/LSTM/GRU、Seq2seq模型和Attention机制,了解基本的Python编程技巧的开发者。

课程介绍

本课程会介绍最近NLP领域取得突破性进展的BERT模型。首先会介绍一些背景知识,包括Word Embedding、RNN/LSTM/GRU、Seq2Seq模型和Attention机制等。然后介绍BERT的基础Transformer模型,这个模型最初用于机器翻译,但是它提出的Self-Attention被用于替换传统的RNN/LSTM/GRU模型。再然后是介绍BERT出现之前的Universal Sentence Embedding模型,包括ELMo和OpenAI GPT。接着介绍BERT模型是什么,它解决了之前模型的哪些问题从而可以达到这么好的效果。代码分析和案例介绍,通过解决实际问题加深理解

课程讨论

<img><img><img><img><img><img>

看了半天实战在哪,坑人的吗,哪里有实战

小白看不懂啊,求推荐快速入门学习步骤

李老师讲的特别好。从RNN/LSTM/GRU到Seq2Seq到Transformer到ELMo到OpenAI GPT到BERT。每个项目的优点和缺点,对应上一种结构的缺点变化都讲明白了。 主要的缺点大致为3个:长句困难、单向信息流和预训练与微调的不匹配。 李老师大致讲解了如何Fine Tuning,这是我们初学者最关心的问题。感谢。 本课程不足之处就是没有代码实践,希望李老师后期能有所补充。 最后,再次感谢李老师的免费分享。

自然语言处理模型方面的视频资料很珍贵,讲师讲的很好

很棒!!从视频中真的能够了解一连串的知识点。现在视频讲源码的其实很少,这种引进门其实对初学者已经很友好了

谢谢老师,讲的很不错哦~!从中学习到了很多知识呢~!

讲的很好,简单明了,谢谢老师,期待李老师出更多得博客和经验分享,谢谢

老师,请问可以用BERT做基于日志数据的异常检测吗

老师讲解的非常有层次,听了之后,对NLP的发展有了比较清晰的认识

同学笔记

没有更多了