你将收获

了解一些背景知识,包括Word Embedding、RNN/LSTM/GRU、Seq2Seq模型和Attention机制等。

了解BERT的基础Transformer模型

适用人群

需要基本的机器学习和深度学习知识,了解Word Embedding、RNN/LSTM/GRU、Seq2seq模型和Attention机制,了解基本的Python编程技巧的开发者。

课程介绍

本课程会介绍最近NLP领域取得突破性进展的BERT模型。首先会介绍一些背景知识,包括Word Embedding、RNN/LSTM/GRU、Seq2Seq模型和Attention机制等。然后介绍BERT的基础Transformer模型,这个模型最初用于机器翻译,但是它提出的Self-Attention被用于替换传统的RNN/LSTM/GRU模型。再然后是介绍BERT出现之前的Universal Sentence Embedding模型,包括ELMo和OpenAI GPT。接着介绍BERT模型是什么,它解决了之前模型的哪些问题从而可以达到这么好的效果。代码分析和案例介绍,通过解决实际问题加深理解

学员评价

0.0
  • 0%
  • 0%
  • 0%
  • 0%
  • 0%

暂无评价

同学笔记

没有更多了