成功

扫码支付

购买商品:
商品价格:

价格读取中

支付方式:
微信

请扫码进行支付

支付宝

请扫码进行支付

二维码已过期,请点击刷新

CSDN讲师
技术讲师
CSDN讲师名下集合了诸多业界知名讲师的公开课内容,内容涵盖人工智能、大数据、区块链等诸多热门技术领域的最佳技术实践,聚合美团、滴滴、AWS、科大讯飞等知名企业的应用实践及分享。
显示更多
本课程共计88分钟,6节,如果每天学习1小时,预计学习2天。
课程简介
本课程会介绍最近NLP领域取得突破性进展的BERT模型。首先会介绍一些背景知识,包括Word Embedding、RNN/LSTM/GRU、Seq2Seq模型和Attention机制等。然后介绍BERT的基础Transformer模型,这个模型最初用于机器翻译,但是它提出的Self-Attention被用于替换传统的RNN/LSTM/GRU模型。再然后是介绍BERT出现之前的Universal Sentence Embedding模型,包括ELMo和OpenAI GPT。接着介绍BERT模型是什么,它解决了之前模型的哪些问题从而可以达到这么好的效果。代码分析和案例介绍,通过解决实际问题加深理解
你将收获
了解一些背景知识,包括Word Embedding、RNN/LSTM/GRU、Seq2Seq模型和Attention机制等。
了解BERT的基础Transformer模型


查看更多笔记

加载中...

没有更多了

同学笔记空空如也

查看更多评价

加载中...

没有更多了

空空如也

手机看
关注公众号

关注公众号

下载APP

下载APP

客服 帮助 返回
顶部