0
21
¥ 89.00购买
立即开通
立即购买

你将收获

熟练掌握RNN与LSTM网络原理,并且可以使用Tensorflow进行建模工作。

适用人群

所有人

课程介绍

购买课程后,添加小助手微信(微信号:csdn500)回复【唐宇迪】

进入学习群,获取唐宇迪老师答疑

课程讲解深度学习中RNN与LSTM网络结构特点,实例演示如何使用Tensorflow构造网络模型。并且讲解了如何基于唐诗数据集去建立LSTM模型进行序列预测。代码示例演示如何使用Tensorflow从零开始训练唐诗生成网络模型。 专属会员卡更超值:http://edu.csdn.net/lecturer/1079

课程讨论

老师,怎么加群

唐老师,微信扫码的群,怎么加,扫码进不去啊

老师RNN网络模型这节课卡死了看不了了

请问这个课程的代码在哪里可以找?

非常实用,受益匪浅。谢谢唐老师给大家能带来这么精彩的课程。

挺好的课程,很基础。强烈推荐。举得例子也很容易懂

老师,您好,可以将代码和测试数据上传一下吗,谢谢。

老师,您好,可以将代码和测试数据上传一下吗,谢谢。

老师,这个测试数据,和源码怎么没有呀

同学笔记

  • weixin_43689588 2020-08-18 22:57:23

    来源:参数配置 查看详情

    1.batch_size一次训练所选取的样本数integer类型

    2.learning_rate学习率float类型

    3.check_pointes_dir模型训练过程中,有些地方模型需要保存的位置string类型

    4.file_path数据源位置string类型

    5.学多少次

  • weixin_43689588 2020-08-12 09:00:08

    来源:处理Mnist数据集 查看详情

    RNN的输入:

    序列化的

    b1:跟时间序列相关

    b2:在b1基础上发生

    b3,b4同。

    希望RNN能把这些序列化关系(时间相关性的关系)表达出来 

  • weixin_43689588 2020-08-10 14:28:47

    来源:LSTM网络架构 查看详情

    1. C:Ct-1:Ct:控制参数,决定什么样的信息会被保留,什么样的会被遗忘。C[0.86,  1,  0.5,,,  ]
    2. C需要训练。
    3. 门,sigmoid函数。这个层生成输出0-1的值,描述每个部分有多少量可以通过。
    4.  
    5.  
    6.  
    7. ​​​​第一步:遗忘信息

    把之前的输入有选择的丢弃。  xt  和  ht-1 通过W组合之后通过σ 函数,得到ft(0<=ft<=1),ft和Ct-1相组合。

     Ct要永远更新。一直维护。

     

     第二步:保存信息

    xt  和  ht-1 通过W组合之后通过σ 函数,得到  it ,与Ct进行组合,

    更新Ct:

    第三步:我要的是输出值ht

    前面数据和当前数据组合成Ot,再和Ct组合,,Ct走一个激活函数再和Ot相乘。利用最新的控制参数Ct产生输出。

     

    LSTM整体架构结束。

     

    重点是控制参数Ct 的更新。

没有更多了