本文用于基本入门理解。

强化学习的基本理论 : R, S, A 这些就不说了。 
先设想两个场景: 

一。 1个 5x5 的 格子图, 里面有一个目标点,  2个死亡点
二。 一个迷宫,   一个出发点,  3处 分叉点, 5个死角, 1条活路

Q-learning 的概念 其实就是一个算法, 数学的,或者软件程序的算法而已。   
对于这种 死的(固定的游戏), 我个人觉得其实就是个穷举算法而已。 

 Q-learning  步骤:
场景一:
假设前提: 
成功的路  A1, A2, ..... An   ,   A-succ
失败的路 A1, B2, ..... Bn   ,   A-Fail
失败的路 A1, C3, ..... Cn   ,   B-Fail
最后成功后, 给个好处 R  = 1, 失败,给个R = -1  

1. 先随机走, 走出三条路来, A1 -- >  A-succ    , A1 -- >  A-Fail,  A1 -- >  B-Fail
2. 走对的路, 最后一个点 An  = 1,  Bn = -1, Cn = -1 ;   实际上是 x 参数(0.90   自定义)
3. 接下,继续走, 走出 An-1   Bn-1,     
3. 接下,继续走, 走出 An-2   Bn-2,     
3. 接下,继续走, 走出 An-3   Bn-3,     
3. 接下,继续走, 走出 An-4  Bn-4,     

4.最后回到 A1,  发现, A1, 向上走 是 0.99, 向右走势 0.10, 向下走势 - 0.50

这样就得到了一个完整的表格, 叫 Q-table,   占在哪个位置,往哪个方向走。 更容达到目标。

总结:  Q-learning  其实是个很 low 的算法, 用谚语说就是:一回生,二回熟。

场景二其实是一样的问题: 
拐角处才有选择, 非拐角处过滤掉。 
个人觉得,用Q-learning 做迷宫, 还不如用 右手法则走迷宫;  反正电脑是傻的, 能达到目标就好。

更新公式:

q_target = r + self.gamma * self.q_table.ix[s_, :].max()   
self.q_table.ix[s, a] += self.lr * (q_target - q_predict)  
  
Sarsa   与Q-learning  的区别仅仅在于,  更新Q-table 表里的某一项的时候, 是先走, 还是先计算更新而已。 没有大的区别。

再说 DQN :
DQN   在原先的Q-learning 上做了几个处理:
1. 在选择Action 的时候, 不是用    values.max;  而是用  predict().max
2. 在更新的时候, 不是更新 Q-learning 里的值, 而是通过训练 定量的数据minbatch , 来更新网络的 weights 。 
更新了 weights , 其实就是变相更新 values.max 的计算方式; 也就确定了  Action 的选择。

个人总结:
对于走宫格这类问题,  强化的概念反应在, 随机走路后, 成功的路多走走。   逐步稳定固化。
迷宫 虽小, 可以用程序暴力解决(穷举), 但是里面包含的思维方式,值得重视。 这样可以拓展
到规模很大的计算上来, 可以加速成效。   但是用一维  4 dim 的(小数据)数据,去训练神经网络
感觉是大炮打蚊子。

强化学习 - Q-learning Sarsa 和 DQN 的理解的更多相关文章

  1. 增强学习(五)----- 时间差分学习(Q learning, Sarsa learning)

    接下来我们回顾一下动态规划算法(DP)和蒙特卡罗方法(MC)的特点,对于动态规划算法有如下特性: 需要环境模型,即状态转移概率\(P_{sa}\) 状态值函数的估计是自举的(bootstrapping ...

  2. 【转载】 强化学习(十)Double DQN (DDQN)

    原文地址: https://www.cnblogs.com/pinard/p/9778063.html ------------------------------------------------ ...

  3. 强化学习(Reinforcement Learning)中的Q-Learning、DQN,面试看这篇就够了!

    1. 什么是强化学习 其他许多机器学习算法中学习器都是学得怎样做,而强化学习(Reinforcement Learning, RL)是在尝试的过程中学习到在特定的情境下选择哪种行动可以得到最大的回报. ...

  4. 强化学习(十)Double DQN (DDQN)

    在强化学习(九)Deep Q-Learning进阶之Nature DQN中,我们讨论了Nature DQN的算法流程,它通过使用两个相同的神经网络,以解决数据样本和网络训练之前的相关性.但是还是有其他 ...

  5. 强化学习(Reinfment Learning) 简介

    本文内容来自以下两个链接: https://morvanzhou.github.io/tutorials/machine-learning/reinforcement-learning/ https: ...

  6. 爬格子问题(经典强化学习问题) Sarsa 与 Q-Learning 的区别

    SARSA v.s. Q-learning 爬格子问题,是典型的经典强化学习问题. 动作是上下左右的走,每走一步就会有一个-1的奖赏.从初始状态走到最终的状态,要走最短的路才能使奖赏最大.图中有一个悬 ...

  7. 强化学习 reinforcement learning: An Introduction 第一章, tic-and-toc 代码示例 (结构重建版,注释版)

    强化学习入门最经典的数据估计就是那个大名鼎鼎的  reinforcement learning: An Introduction 了,  最近在看这本书,第一章中给出了一个例子用来说明什么是强化学习, ...

  8. Deep Learning专栏--强化学习之MDP、Bellman方程(1)

    本文主要介绍强化学习的一些基本概念:包括MDP.Bellman方程等, 并且讲述了如何从 MDP 过渡到 Reinforcement Learning. 1. 强化学习基本概念 这里还是放上David ...

  9. 强化学习(十一) Prioritized Replay DQN

    在强化学习(十)Double DQN (DDQN)中,我们讲到了DDQN使用两个Q网络,用当前Q网络计算最大Q值对应的动作,用目标Q网络计算这个最大动作对应的目标Q值,进而消除贪婪法带来的偏差.今天我 ...

随机推荐

  1. mongodb 3.4 集群搭建:分片+副本集

    mongodb是最常用的nodql数据库,在数据库排名中已经上升到了前六.这篇文章介绍如何搭建高可用的mongodb(分片+副本)集群. 在搭建集群之前,需要首先了解几个概念:路由,分片.副本集.配置 ...

  2. web.config中配置数据库(多数据)连接的两种方式

    这是我的第一篇文章,既然是第一篇了,那就从最基础的只是说起--web.config中配置数据库连接. 网上有很多这方面的资料,但发现并没有一篇从头到位很清楚明了说完的,今天就把我的整理写在这里吧. 在 ...

  3. 谈谈对Python的感想

    写在前面 我用Python已经好几年了,最早学习用Python还是因为对人工神经网络感兴趣,python有个很好用的ANN库neurolab.本人其实也算初学者,充其量算入门了吧,写这篇一来回顾自己所 ...

  4. 【实验手册】使用Visual Studio Code 开发.NET Core应用程序

    .NET Core with Visual Studio Code 目录 概述... 2 先决条件... 2 练习1: 安装和配置.NET Core以及Visual Studio Code 扩展... ...

  5. 每周.NET前沿技术文章摘要(2017-06-07)

    汇总国外.NET社区相关文章,覆盖.NET ,ASP.NET等内容: .NET .NET Core and .NET Framework Working Together, Or: The Magic ...

  6. Akka Serialization

    Akka本身使用了Protocol Buffers来序列化内部消息(比如gossip message).Akka系统还可以配置自定义序列化机制. 配置conf akka { actor { ## 在a ...

  7. php trim源码分析

    本文同时发表于https://github.com/zhangyachen/zhangyachen.github.io/issues/9 核心代码如下: /* {{{ php_trim() * mod ...

  8. Kendo UI使用笔记

    1.Grid中的列字段绑定模板字段方法参数传值字符串加双引号: 上图就是个典型的例子,openSendWin方法里Id,EmergencyTitle,EmergencyDetail 三个参数,后两个参 ...

  9. 扩展1 - Python 获取当前时间的用法

    1.先导入库:import datetime 2.获取当前日期和时间:now_time = datetime.datetime.now() 3.格式化成我们想要的日期:strftime() 比如:“2 ...

  10. java数组去重

    java数组去重 1.创建新数组,用于保存比较结果 2.设定随机数组最大最小值 3.开始去重 4.计算去重所需时间 package org.zheng.collection; import java. ...