7-融合学习与规划(Integrating Learning and Planning)

1.导论

基于模型的强化学习(Model-Based Reinforcement Learning)

  • 在上一个课程中,是从记录序列中直接学习策略
  • 在过往的课程中,是从记录序列中直接学习价值函数
  • 而本次课程,则是从记录序列中直接学习模型
  • 然后采用规划(Planning)来构建一个价值函数或者策略
  • 将学习(Learning)与规划(Planning)融合到一个架构中

基于模型(Model-Based)和无模型(Model-Free)强化学习

  • 无模型强化学习

    • 无模型
    • 从经验序列中学习价值函数或者策略
  • 基于模型强化学习

    • 从序列中学习一个模型
    • 通过模型来规划价值函数或者策略

2.基于模型的强化学习(Model-Based RL)

价值/策略 -> 交互 -> 经验序列 -> 模型学习 -> 模型 -> 规划 -> 价值/策略 ->....

基于模型强化学习的优点

优点:

  • 可以基于监督学习的方法快速学习
  • 能够解释模型的不确定性

缺点:

  • 先学习一个模型,再构建策略函数,中间过程导致了两次近似误差的产生

什么为模型?

  • 对于一个模型\(\mathcal{M}\)则是代表一个由参数\(\eta\)进行控制的$MDP\mathcal{\langle S, A, P, R \rangle} $

  • 我们假定状态空间\(\mathcal{S}\)和动作空间\(\mathcal{A}\)是已知的

  • 为此一个模型\(\mathcal{M=\langle P_\eta,R_\eta\rangle}\)代表着状态转移概率\(\mathcal{P_\eta\approx P}\)以及回报\(\mathcal{R_\eta\approx R}\)

    \[\begin{align}
    S_{t+1}&\sim\mathcal{P_\eta}(S_{t+1}|S-t,A_t) \\
    R_{t+1}&\sim\mathcal{R_\eta}(R_{t+1}|S-t,A_t)
    \end{align}
    \]
  • 一般来说假设状态转移以及回报是符合条件性独立的

    即:

    \[\mathbb{P}[S_{t+1},R_{t+1}|S_t,A_t]=\mathbb{P}[S_{t+1}|S_t,A_t]\mathbb{P}[R_{t+1}|S_t,A_t]
    \]

模型学习(Model Learning)

  • 目标:从经验序列\(\{S_1,A_1,R_2\dots,S_T\}\)估计模型\(\mathcal{M_\eta}\)

  • 显然这是一个监督学习问题:

    \[\begin{align}
    S_1,A_1&\rightarrow R_2,S_2 \\
    S_2,A_2&\rightarrow R_3,S_3 \\
    &\vdots \\
    S_{T-1},A_{T-1}&\rightarrow R_T,S_T
    \end{align}
    \]
  • 学习 \(s,a\rightarrow r\)即是回归问题

  • 学习\(s,a\rightarrow s'\)即是密度估计问题(即是学习密度概率函数或者说分布)

  • 选择一个损失函数,如MSE、KL散度等

  • 寻找参数\(\eta\)以最小化经验误差

一些模型的典型例子

  • 查表法模型(Table Lookup Model)
  • 线性期望模型(Linear Expectiation Model)
  • 线性高斯模型(Linear Gaussian Model)
  • 高斯过程模型(Gaussian Process Model)
  • 深度微型网络(Deep Belief Network Model)
  • ...

查表模型(Table Lookup Model)

  • 模型显然是一个显式的马尔科夫决策过程\(\mathcal{\hat P,\hat R}\)

  • 计算访问每个状态动作对的访问次数\(N(s,a)\)

    \[\begin{align}
    \mathcal{\hat P^a_{s,s'}} & = \frac{1}{N(s,a)}\sum^{T}_{t=1}\mathbf 1(S_t, A_t,S_{t+1}=s,a,a') \\
    \mathcal{\hat R^a_{s,s'}} & = \frac{1}{N(s,a)}\sum^{T}_{t=1}\mathbf 1(S_t, A_t=s,a)R_t

    \end{align}
    \]

  • 或者换一种说法

    • 在每一个时间辍t中记录经验元组\(\langle S_t,A_t, R_{t+1},S_{t+1}\rangle\)
    • 对于一个采样模型,随机性地采样形如\(\langle s,a,\cdot,\cdot\rangle\)的元素

模型规划(Planning with a model)

*Planning即是Solving

  • 给定模型\(\mathcal{M_\eta=\langle P_\eta,R_\eta\rangle}\)
  • 解决\(MDP\mathcal{\langle S,A,P_\eta,R_\eta\rangle}\)
  • 用你喜欢的算法即可:
    • 价值迭代
    • 策略迭代
    • 树形搜索
    • ...

基于采样的规划(Sample-Based Planning)

  • 简易却是强大的规划方法

  • 只用模型来生成样本

  • 从模型中进行采样

    \[\begin{align}
    S_{t+1} & \sim \mathcal{P_\eta}(S_{t+1}|S_t,A_t) \\
    R_{t+1} & = \mathcal{R_\eta}(R_{t+1}|S_t,A_t)
    \end{align}
    \]
  • 通过无模型的强化学习方法去采样,例如说:

    • 蒙特卡罗控制
    • SARSA算法
    • Q--Learning
  • 基于采样的规划(Sample-Based Planning)一般来说都比较高效

非精准模型的规划

  • 给定非完美的模型\(\mathcal{\langle P_\eta,R_\eta \rangle \neq \langle P,R \rangle}\)

  • 基于模型强化学习的表现决定或者说限制了拟合\(MDP\mathcal{\langle S,A,P_\eta, R_\eta \rangle}\)的最优策略

    即是基于模型的强化学习只能跟他估计所用的模型一致

  • 那么当模型不够精确之时,在规划的过程中只能得到一个次优解的策略

  • 方法1:当模型完全出错之时,采用无模型的强化学习

  • 方法2:显式地描述模型的不确定性

3.融合架构(Integrated Architectures)

真实序列与模拟序列

我们这里定义两种来源的经验序列

  • 真实序列(Real experience)从环境中进行的取样(真正的MDP)

    \[S' \sim \mathcal{P^a_{s,s;}} \\
    R = \mathcal{R^a_s}
    \]
  • 模拟序列(Simulated experience)从模型中进行的取样的(近似MDP)

    \[\begin{align}
    S'& \sim \mathcal{P_\eta(S'|S,A)} \\
    R & = \mathcal{R_\eta}(R|S,A)
    \end{align}
    \]

基于模型(Model-Based)和无模型(Model-Free)强化学习

  • 无模型强化学习

    • 无模型
    • 从经验序列中学习价值函数或者策略
  • 基于模型强化学习(通过基于采样的规划)

    • 从序列中学习一个模型
    • 通过模型来规划价值函数或者策略
  • Dyna(pronounce: daina)(二者的融合体)

    • 从真实经验序列中学习一个模型
    • 学习并且规划处一个价值函数(或者策略)从混合的真实与模拟经验序列

Dyna-Q算法

对所有的\(s\in\mathcal{S}\)以及所有的\(a\in\mathcal{A(s)}\),初始化 \(Q(s,a)\)以及模型\(Model(s,a)\)

一直循环:

  1. \(S\leftarrow\) 目前的状态(非终结态)

  2. \(A\leftarrow\epsilon-greedy(S,Q)\)

  3. 执行动作\(A\),得到回报\(R\)以及下一状态\(S'\)

  4. \(Q(S,A)\leftarrow Q(S,A)+\alpha[R + \gamma\max_a Q(S',a)-Q(S,A)]\)

  5. \(Model(S,A) \leftarrow R,S'\)(假设是确定性的环境)

  6. 循环\(n\)次

    \(S\leftarrow\) 随机取样过去观测到的状态

    \(A\leftarrow\)随机取样在\(S\)中会采取的动作

    \(R,S'\leftarrow Model(S,A)\)

    \(Q(S,A) \leftarrow Q(S,A) + \alpha[R + \gamma\max_a Q(S',a) - Q(S,A)]\)

其中中间循环\(n\)次也可以看做是思考次数

尤其适合变化性的环境

4.基于模拟的搜索(Simulation-Based Search)

前向搜索(Forward search)

  • 前向搜索算法通过向前预测来选取最佳的动作
  • 通过建立基于目前状态\(s_t\)作为根的搜索树(Search Tree)
  • 通过一个MDP的模型来向前预测
  • 其实并不需要整个MDP,只是从目前出发的一部分MDP

基于模拟的搜索(Simulation-Based Search)

  • 前向搜索图采用基于采样的规划

  • 通过模型模拟出从现在开始的经验序列

  • 在模拟出来的序列中应用无模型的强化学习

  • 首先基于模型模拟从目前状态开始的经验序列

    \[\{\color{red}{s^k_t},A^k_t,R^k_{t+1},\dots,S^k_T\}^K_{k=1}\sim\mathcal{M_v}
    \]
  • 在模拟出来的序列中应用无模型强化学习(按你喜欢的即可)

    • 蒙特卡罗·控制\(\rightarrow\)蒙特卡罗搜索(Monte-Carlo Search)
    • SARSA\(\rightarrow\) TD搜索

简易蒙特卡罗搜索(Simple Monte-Carlo Search)

  • 给定模型\(\mathcal{M_v}\)以及一个模拟策略\(\pi\)

  • 对于所有动作\(a\in \mathcal{A}\)

    • 然后基于目前状态\(s_t\)(是真实的)去模拟\(K\)个状态

      \[\{\color{red}{s_t,a},R^k_{t+1},S^k_{t+1},A^k_{t+1},\dots,S^k_T\}^K_{k=1}\sim \mathcal{M_v,\pi}
      \]
    • 通过均值返回回报去评估每一个动作(蒙特卡罗评估)

      \[Q(\color{red}{s_t,a})=\frac{1}{K}\sum^K_{k=1}G_t\mathop{\rightarrow}^P q_\pi(s_t,a)
      \]
    • 选择具有目前最大价值的动作

      \[a_t=\mathop{\arg\max}_{a\in A}Q(s,a)
      \]

蒙特卡罗树搜索(Monte-Carlo Tree Search)(评估)

  • 给定模型\(\mathcal{M_v}\)

  • 通过目前的模拟策略\(\pi\)从目前状态\(s_t\)模拟K步序列

    \[\{\color{red}{s_t}A^k_t,R^k_{t+1},S^k_{t+1},A^k_{t+1},\dots,S^k_T\}^K_{k=1}\sim \mathcal{M_v,\pi}
    \]
  • 然后构建一个包含(模拟中)访问过的状态以及动作的搜索树

  • 通过从\(s,a\)出发的每一步序列返回的均值返回回报评估状态的\(Q(s,a)\)

    \[Q(\color{red}{s,a})=\frac{1}{N(s,a)}\sum^K_{k=1}\sum^T_{u=t}\mathbf1(S_u,A_u=s,a)G_u\mathop{\rightarrow}^P q_\pi(s,a)
    \]
    • 选择具有目前最大价值的动作
      \[a_t=\mathop{\arg\max}_{a\in A}Q(s,a)
      \]

蒙特卡罗树搜索(模拟)

  • 在蒙特卡罗树搜索中,模拟策略\(\pi\)是可以被更新改进的

  • 每一次模拟都包含了两部分(入树与出树)

    • 树策略(改进):通过最大化\(Q(S,A)\)进行动作选择
    • 缺省策略(修正过):随机选择动作
  • 重复(每次循环如此)

    • 通过蒙特卡罗评估去评估状态\(Q(S,A)\)
    • 改进树策略例如通过\(\epsilon-greddy(Q)\)
  • 然后将蒙特卡罗控制应用在模拟出来的经验序列中

  • 将会收敛于最优的搜索树,\(Q(S,A)\rightarrow q_*(S,A)\)

    *从目前状态出发树策略一直下推以取代缺省策略

蒙特卡罗树搜索的优点

  • 高度选择性的最优优先搜索
  • 动态评估所有状态(不像例如动态规划那样)
  • 通过采样来破坏维度曲线(curse dimensionality)*大概指的是状态随着树分支的增加以几何级数的趋势爆发
  • 黑箱模型的杰作(只需采样)
  • 计算处理上地高效,支持并行处理

时序差分搜索(Temporal-Difference Search)

  • 基于模拟的搜索
  • 采用TD来取代蒙特卡罗(自助法)
  • 蒙特卡罗树搜索应用蒙特卡罗控制到部分MDP上
  • 同理时序差分搜索应用SARSA控制到部分MDP上

蒙特卡罗对比时序差分搜索

  • 对于无模型强化学习,自助法比较有用

    • TD学习减少了方差但是增加偏差
    • TD学习一般比蒙特卡罗更为高效
    • \(TD(\lambda)\)比蒙特卡罗非常非常高效
  • 对于基于模拟的搜索,自助法一样好用
    • TD搜索减少方差但是增加偏差
    • TD搜索一般比蒙特卡罗搜索要更为高效
    • \(TD(\lambda)\)比蒙特卡罗搜索要非常非常高效

时序差分搜索

  • 模拟从目前状态\(s_t\)开始的经验序列

  • 估计动作-价值函数\(Q(s,a)\)

  • 对于每一步模拟,tguo1SARSA去更新动作价值函数

    \[\Delta Q(S,A) = \alpha(R + \gamma Q(S',A') - Q(S,A))
    \]
  • 选择动作基于动作价值函数\(Q(s,a)\)

    • 例如说\(\epsilon-greedy\)
  • 同样Q也适用于函数近似

Dyna-2

  • 在Dyna-2之中,智能体存储了两个特征权重的数据集

    • 长期记忆
    • 短期记忆(动态工作中)
  • 长期记忆是从真实经验序列通过时序差分学习更新出来的

    • 通用的知识可以应用于所有状态序列
  • 短期记忆是基于模拟经验序列通过时序差分学习更新出来的

  • 整个价值函数是长期记忆与短期记忆的求和

机器学习 | 强化学习(7) | 融合学习与规划(Integrating Learning and Planning)的更多相关文章

  1. 机器学习算法总结(三)——集成学习(Adaboost、RandomForest)

    1.集成学习概述 集成学习算法可以说是现在最火爆的机器学习算法,参加过Kaggle比赛的同学应该都领略过集成算法的强大.集成算法本身不是一个单独的机器学习算法,而是通过将基于其他的机器学习算法构建多个 ...

  2. 人工智能新手入门学习路线和学习资源合集(含AI综述/python/机器学习/深度学习/tensorflow)

    [说在前面]本人博客新手一枚,象牙塔的老白,职业场的小白.以下内容仅为个人见解,欢迎批评指正,不喜勿喷![握手][握手] 1. 分享个人对于人工智能领域的算法综述:如果你想开始学习算法,不妨先了解人工 ...

  3. 学习笔记DL002:AI、机器学习、表示学习、深度学习,第一次大衰退

    AI早期成就,相对朴素形式化环境,不要求世界知识.如IBM深蓝(Deep Blue)国际象棋系统,1997,击败世界冠军Garry Kasparov(Hsu,2002).国际象棋,简单领域,64个位置 ...

  4. V-rep学习笔记:机器人路径规划2

    路径规划问题是机器人学研究的一个重要领域,它是指给定操作环境以及起始和目标的位置姿态,要求选择一条从起始点到目标点的路径,使运动物体(移动机器人或机械臂)能安全.无碰撞地通过所有的障碍物而达到目标位置 ...

  5. 深度学习模型融合stacking

    当你的深度学习模型变得很多时,选一个确定的模型也是一个头痛的问题.或者你可以把他们都用起来,就进行模型融合.我主要使用stacking和blend方法.先把代码贴出来,大家可以看一下. import ...

  6. Python、机器学习、计算机视觉、深度学习入门

    1.简明Python教程 2.Python计算机视觉编程 3.机器学习实践 4.吴恩达机器学习 5.李飞飞深度学习与计算机视觉

  7. AI小白必读:深度学习、迁移学习、强化学习别再傻傻分不清

    摘要:诸多关于人工智能的流行词汇萦绕在我们耳边,比如深度学习 (Deep Learning).强化学习 (Reinforcement Learning).迁移学习 (Transfer Learning ...

  8. 学习移动机器人SLAM、路径规划必看的几本书

    作者:小白学移动机器人链接:https://zhuanlan.zhihu.com/p/168027225来源:知乎著作权归作者所有.商业转载请联系作者获得授权,非商业转载请注明出处. 声明:推荐正版图 ...

  9. 基于深度学习和迁移学习的识花实践——利用 VGG16 的深度网络结构中的五轮卷积网络层和池化层,对每张图片得到一个 4096 维的特征向量,然后我们直接用这个特征向量替代原来的图片,再加若干层全连接的神经网络,对花朵数据集进行训练(属于模型迁移)

    基于深度学习和迁移学习的识花实践(转)   深度学习是人工智能领域近年来最火热的话题之一,但是对于个人来说,以往想要玩转深度学习除了要具备高超的编程技巧,还需要有海量的数据和强劲的硬件.不过 Tens ...

  10. 对比学习:《深度学习之Pytorch》《PyTorch深度学习实战》+代码

    PyTorch是一个基于Python的深度学习平台,该平台简单易用上手快,从计算机视觉.自然语言处理再到强化学习,PyTorch的功能强大,支持PyTorch的工具包有用于自然语言处理的Allen N ...

随机推荐

  1. Spring JDBCTemplate 增删查功能 (简单易懂)

    需要的外部jar包: mysql-connector-javadruid 配置druid <!--配置数据库连接池--> <bean id="dataSource" ...

  2. nginx国密ssl测试

    文章目录文件准备编译部署nginx申请国密数字证书配置证书并测试文件准备下载文件并上传到服务器,这里使用centos 7.8 本文涉及的程序文件已打包可以直接下载. 点击下载 下载国密版openssl ...

  3. arch linux deepin-wine-wechat

    https://aur.archlinux.org/packages/deepin-wine-wechat md5sum for WeChatSetup-3.9.0.28.exe should be ...

  4. Shiro配置跳过权限验证

    需求 因为在开发环境,测试环境,有时候需要跳过shiro的权限验证.所以想写个简单的配置跳过shiro的权限验证.跳过权限验证的原理就是重写**@RequiresPermissions**的实现,然后 ...

  5. 【转载】 Spring Security做JWT认证和授权

    https://www.jianshu.com/p/d5ce890c67f7 上一篇博客讲了如何使用Shiro和JWT做认证和授权(传送门:https://www.jianshu.com/p/0b11 ...

  6. 龙哥量化:通达信的macd改进优化方法及选股公式源码

    有很多同学是看macd的数值,遇到股价比较低的,macd数值变成0.00,就看不明白了, 优化: 第一步,给股价乘100,所有的哦 源码: DIF:EMA(CLOSE*100,12)-EMA(CLOS ...

  7. Qt编写项目作品26-一维码二维码解析及生成

    一.功能特点 支持本地USB摄像头实时解析. 支持网络视频流实时解析. 解码格式支持一维码二维码等各种编码. 可生成一维码二维码,一维码支持EAN_13格式,其他格式可定制. 条形码参数支持宽度.高度 ...

  8. Quartz分布式定时任务

    前言: 项目需要执行定时任务,该类定时任务只需要实现类似Spring原生的@Scheudle注解的定时方法即可,无需考虑分片.刷新及重启,且因项目是多实例,所以需要考虑实现分布式,考察了目前开源的几款 ...

  9. 解决pip命令报错及Python环境配置指南:从安装到优化

    1. 错误日志 当我在 Linux 机器(使用 Debian 或 Ubuntu 或衍生发行版)上运行 pip install xyz 时,会出现这样的错误: error: externally-man ...

  10. [转]E1接口介绍

    E1 通道本来设计用来传输电话的,每个 E1(带宽 2.048M)可以传 30 路电话,后来扩大的应用范围,可以用作传网络,串口等不同的业务:E1 是一个基本的传输单元,其最终还是通过光纤来传输的,如 ...