你将收获

了解一些背景知识,包括Word Embedding、RNN/LSTM/GRU、Seq2Seq模型和Attention机制等。

了解BERT的基础Transformer模型

适用人群

需要基本的机器学习和深度学习知识,了解Word Embedding、RNN/LSTM/GRU、Seq2seq模型和Attention机制,了解基本的Python编程技巧的开发者。

课程介绍

本课程会介绍最近NLP领域取得突破性进展的BERT模型。首先会介绍一些背景知识,包括Word Embedding、RNN/LSTM/GRU、Seq2Seq模型和Attention机制等。然后介绍BERT的基础Transformer模型,这个模型最初用于机器翻译,但是它提出的Self-Attention被用于替换传统的RNN/LSTM/GRU模型。再然后是介绍BERT出现之前的Universal Sentence Embedding模型,包括ELMo和OpenAI GPT。接着介绍BERT模型是什么,它解决了之前模型的哪些问题从而可以达到这么好的效果。代码分析和案例介绍,通过解决实际问题加深理解
讨论留言
10 条回复 进入帖子
切换为未回复评论
切换为时间正序
请发表友善的回复…
发表回复
FUNCHAO_2020-03-15
  • 打赏
  • 举报
回复
看了半天实战在哪,坑人的吗,哪里有实战
FUNCHAO_2020-03-15
  • 打赏
  • 举报
回复
小白看不懂啊,求推荐快速入门学习步骤
  • 打赏
  • 举报
回复
李老师讲的特别好。从RNN/LSTM/GRU到Seq2Seq到Transformer到ELMo到OpenAI GPT到BERT。每个项目的优点和缺点,对应上一种结构的缺点变化都讲明白了。 主要的缺点大致为3个:长句困难、单向信息流和预训练与微调的不匹配。 李老师大致讲解了如何Fine Tuning,这是我们初学者最关心的问题。感谢。 本课程不足之处就是没有代码实践,希望李老师后期能有所补充。 最后,再次感谢李老师的免费分享。
zezbj2019-12-21
  • 打赏
  • 举报
回复
自然语言处理模型方面的视频资料很珍贵,讲师讲的很好
weixin_393546772019-09-14
  • 打赏
  • 举报
回复
很棒!!从视频中真的能够了解一连串的知识点。现在视频讲源码的其实很少,这种引进门其实对初学者已经很友好了
龚山2019-08-20
  • 打赏
  • 举报
回复
谢谢老师,讲的很不错哦~!从中学习到了很多知识呢~!
阿_牛2019-05-19
  • 打赏
  • 举报
回复
讲的很好,简单明了,谢谢老师,期待李老师出更多得博客和经验分享,谢谢
qq_360172242019-04-05
  • 打赏
  • 举报
回复
老师,请问可以用BERT做基于日志数据的异常检测吗
  • 打赏
  • 举报
回复
老师讲解的非常有层次,听了之后,对NLP的发展有了比较清晰的认识