0
160
¥ 154.00
开通会员,立省15.40元, 立即开通
立即购买

你将收获

带领同学们快速掌握机器学习界爆火的强化学习系列并将强化学习与深度学习进行结合,实例演示如何使用DQN网络让AI自己玩游戏!课程会员卡优惠优惠链接:http://edu.csdn.net/lecturer/lecturer_detail?lecturer_id=1079

适用人群

所有人

课程介绍

购买课程后,添加小助手微信(微信号:csdnxy68)回复【唐宇迪】

进入学习群,获取唐宇迪老师答疑


强化学习实战视频培训教程概况:强化学习是当下爆火的机器学习经典模型,系列课程从实例出发,形象解读强化学习如何完整一个实际任务。由基本概念过度到马尔科夫决策过程,通过实例演示如何通过迭代求解来得出来好的决策。举例讲解强化学习(Q-Learning)算法的原理以及如何将强化学习和深度学习进行结合。后通过让AI自动玩游戏的项目实战实例演示如何实现用强化学习和卷积神经网络打造DQN网络模型。

课程讨论

nice~nice~nice~nice~nice~nice~nice~nice~
按这个思路Q矩阵应该会爆炸,怎么会收敛呢?
这个过程好像DP啊!!!!!!!!!!
非常实用,受益匪浅。谢谢唐老师给大家能带来这么精彩的课程。
请问代码在哪里下载?

所有回复(1):

课件及代码请在“课件下载”中下载,课程目录右侧有一个课件下载按钮,如果有疑问请联系客服咨询,感谢您的支持!
这是第一次买唐宇迪的课,之前只听其名,但是还没有看过老师的视频,这次看了之后,发现确实可以,怪不得能!
能看出来老师的实力,内容也很实用,在理论方面讲的清楚明了,代码方面也清楚,能做到这两点就是很不容易了,支持老师
老师的声音好好听!讲的一直很清楚了,课程的内容质量都是中上等,已经推荐给身边的小伙伴了。

同学笔记

  • DrElaine 2020-05-03 13:29:14

    来源:DQN网络细节 查看详情

    Deep-Qnetwork

     

    1. 因为色彩没有影响,所以 convert image to grayscale

    2. resize image to 80x80

    3. stack last 4 frames to produce an 80x80x4 input array for network.

    变成灰度图之后,再进行二值化。黑色代表可以走的区域

     

     

     

    之前每次都是选当前最优的状态,但是当前最优容易陷入局部最优解,无法找到全局最优。

     

    开发-探索:

    每次出来当前最优的动作之后,有10%的可能不走这个动作,而是随机选择其他动作进行探索。所以deep-q network可以加入探索机制;

     

     

     

     

     

     

  • DrElaine 2020-05-03 13:21:52

    来源:DeepQnetwork原理 查看详情

    Deep Q-network

     

    用4帧表示一个state.

    84*84*4 当前state包含这么多像素 x(0-255) 

     

    做不出这么大的Q-table用来训练。

     

    用Q-table做不了,用Network来充当Q-table.

    要维护的不再是Q-table, 而是一个network.

     

     

     

  • DrElaine 2020-05-03 12:14:56

    来源:QLearning迭代效果 查看详情

    Q-Learning过程2

     

     

    此时,Q{1,3}, Q{1,5}进行比较之后,最大值是100. (因为第一步已经更新过Q{1,5})。

    经过更多迭代之后:Q-table会变成:

     

     

    左面会把它Normalize之后,再乘以100

     

    当两个Q value一样大时,随机选一个走就行

     

     

     

     

     

     

没有更多了