[Reinforcement Learning] Cross-entropy Method
Cross-entropy Method(简称CEM)虽然是一种基于交叉熵的算法,但并不是我们熟知的监督学习中的交叉熵方法,与其说它是一种基于交叉熵的算法,倒不如说是一种基于蒙特卡洛和进化策略的算法。CEM算法不仅可以用作评估,也可以作为一种有效的优化算法,与进化算法(EAs)类似CEM是一种完全免梯度(gradients free)的算法。
这里引用维基百科上对Cross-entropy Method的解释[1]:
The cross-entropy (CE) method is a Monte Carlo method for importance sampling and optimization. It is applicable to both combinatorial and continuous problems, with either a static or noisy objective.
CEM算法的迭代训练过程可以分为两个阶段:
- 根据采样概率分布进行重采样;
- 通过最小化采样概率分布和目标概率分布的交叉熵来更新采样概率分布。
Importance sampling
CEM要解决的是这样一种问题,假设我们需要估计一个事件$H(x)$发生的期望:
$$\mathbb{E}_{u}[H(x)]=\int H(x)f(x;u)dx$$
最简单的方法就是利用朴素蒙特卡洛采样从真实概率密度函数$f(x;u)$中采样一些样本$x^{'}$,然后通过求均值估计期望,即:
$$\mathbb{E}_{u}[H(x)]=\frac{1}{N}\sum_{i=1}^{N}x_{i}^{'}$$
但如果事件$H(x)$是一种小概率事件,那么朴素蒙特卡洛模拟需要采样非常多的样本才能准确估计期望。针对这个问题,CEM算法引入了重要性采样(importance sampling)。
Importance sampling[2]的主要思想如下:
首先通过一个类似于目标概率分布的采样概率分布$f(x;v)$(其中$v$被称为reference parameter)来进行采样,则期望变为:
$$\mathbb{E}_{u}[H(x)]=\frac{1}{N}\sum_{i=1}^{N}x_{i}^{'}\frac{f(x;u)}{f(x;v)}$$
于是现在的目标变成了如何找到一个最优的采样概率函数$f(x;v^{*})$去指导采样出一些少量的样本来准确地估计期望。CEM在每次迭代中通过选取较好的采样样本(Elite samples)来更新采样概率函数的参数$v$,目的是减小当前采样概率函数$f(x;v)$与最优采样概率函数$f(x;v^{*})$的分布差距(即KL散度,相对熵)(PS:paper最后只用到了交叉熵,所以取名为CEM)。
Pseudo-code of CEM
下面给出一个以高斯分布作为采样概率分布的CEM伪代码:
# Step1: initialization
初始化采样概率分布参数:mu, sigma;
初始化当前迭代次数t=0,设置最大迭代次数max_its,样本个数N,精英样本个数Ne,以及采样方差的误差范围epsilon;
for t in range(0, max_its):
# Step2: 使用高斯分布进行随机采样
X = SampleGaussian(mu, sigma, N)
# Step3: 评估样本
S = EvaluateSamples(X)
# Step4: 重要性采样
X = sort(X, S)
mu = mean(X[0:Ne-1])
sigma = var(X[0:Ne-1])
if sigma > epsilon:
break
# Step5: 返回精英样本的均值
return mu
CEM && RL
注:以下内容引自博文《进化策略优化算法CEM(Cross Entropy Method)》[3]。
CEM也可以用来求解马尔可夫决策过程,也就是强化学习问题。我们知道,强化学习也是一种动态规划过程,在某个状态下选择某个动作就像在某个节点选择路径一样,整个过程就是一个从初始状态到末状态的路径规划问题,只不过我们希望得到一条能最大化收益的路径。在这种考虑下,就可以用CEM建模了,我们让一条完整的路径成为一个样本$x=(s_0,a_0,s_1,a_1,…,s_n,a_n)$,路径获得的总收益为$S(x)=\sum_{i=0}^{N} r(s_i,a_i)$,目标是最大化这个$S(x)$,那么如何采样出这些样本呢?我们可以构建一个$p$矩阵:矩阵行表示状态,列表示动作,如$p_{ij}$表示在状态$s_i$下执行$a_j$动作的概率,我们通过对这个$p$矩阵进行多次采样就可以获得多个样本,然后选出$S(x)$较高的样本用来更新$p$矩阵,不断迭代,最终找到最优$\hat{p}$矩阵。
这是一种类似于策略迭代(policy iteration)的强化学习方法:通过$p$矩阵找到在每一步状态下各个动作的概率来形成决策策略,但参数更新并没有用到梯度。从另外一个角度,你也可以认为这是一种值迭代(value iteration)的强化学习方法,此时$p$矩阵就是经典Q-learning中的$Q$矩阵,只不过$Q$矩阵中第$i$行第$j$列元素表示的是状态$s_i$下动作$a_j$的未来收益的期望,基于贝尔曼方程(Bellman equation)来更新Q值;而$p$矩阵表示的是概率值,通过交叉墒来更新。
Reference
[3] 进化策略优化算法CEM(Cross Entropy Method)
[Reinforcement Learning] Cross-entropy Method的更多相关文章
- Soft Actor-Critic: Off-Policy Maximum Entropy Deep Reinforcement Learning with a Stochastic Actor
Soft Actor-Critic: Off-Policy Maximum Entropy Deep Reinforcement Learning with a Stochastic Actor 20 ...
- Awesome Reinforcement Learning
Awesome Reinforcement Learning A curated list of resources dedicated to reinforcement learning. We h ...
- 18 Issues in Current Deep Reinforcement Learning from ZhiHu
深度强化学习的18个关键问题 from: https://zhuanlan.zhihu.com/p/32153603 85 人赞了该文章 深度强化学习的问题在哪里?未来怎么走?哪些方面可以突破? 这两 ...
- (转) Playing FPS games with deep reinforcement learning
Playing FPS games with deep reinforcement learning 博文转自:https://blog.acolyer.org/2016/11/23/playing- ...
- (zhuan) Deep Reinforcement Learning Papers
Deep Reinforcement Learning Papers A list of recent papers regarding deep reinforcement learning. Th ...
- (转) Deep Reinforcement Learning: Playing a Racing Game
Byte Tank Posts Archive Deep Reinforcement Learning: Playing a Racing Game OCT 6TH, 2016 Agent playi ...
- getting started with building a ROS simulation platform for Deep Reinforcement Learning
Apparently, this ongoing work is to make a preparation for futural research on Deep Reinforcement Le ...
- (转) Deep Learning in a Nutshell: Reinforcement Learning
Deep Learning in a Nutshell: Reinforcement Learning Share: Posted on September 8, 2016by Tim Dettm ...
- (转) Deep Reinforcement Learning: Pong from Pixels
Andrej Karpathy blog About Hacker's guide to Neural Networks Deep Reinforcement Learning: Pong from ...
随机推荐
- HDFS深度历险 之 从客户端逻辑看HDFS写入机制
说明 除了标注之外,本文纯属原创,转载请注明出处:https://www.jianshu.com/p/ea6ef5f5b868, https://www.cnblogs.com/monkeyteng/ ...
- Django-0-环境搭建、创建项目、启动服务
1- 创建虚拟环境名称(在虚拟机中) mkvirtualenv -p /usr/bin/python3 envname (/usr/bin/python3 - 你自己在虚拟机中的Python解释器 ...
- SQL Server数据库漏洞评估了解一下
SQL Server Management Studio 17.4或更高版本的SSMS中提供了SQL Server漏洞侦测(VA)功能,此功能允许SQL Server扫描您的数据库以查找潜在的安全漏洞 ...
- Tomcat设置cmd窗口的title属性
说明:官网下载tomcat之后,双击bin目录下的startup.bat文件,即可运行tomcat:linux下面运行startup.sh. 但是如果测试服务器上面搭建了多个项目,则启动之后窗口一样, ...
- android申请多个权限的正确姿势
ActivityCompat.requestPermissions(this,new String[]{Manifest.permission.RECORD_AUDIO, Manifest.permi ...
- RecyclerView的Item的单击事件
RecyclerView 的每个Item的点击事件并没有像ListView一样封装在组件中,需要Item的单击事件时就需要自己去实现,在Adapter中为RecyclerView添加单击事件参考如下: ...
- egg.js与mysql的结合使用,以及部署事项
最近使用egg.js写了一个小项目练手,主要用来封装接口以及代理接口.进入正题: egg搭建以及各项配置 可以详见官方文档:https://eggjs.org,这里简单描述一下: 1.直接使用脚手架快 ...
- P1090 合并果子 题解
那么,我们开始吧, 堆 堆是一个完全二叉树,而且是每层都有规律的二叉树 规律大概是: 小根堆:最上层数的大小最小,往下每层结点都比父亲结点大,比两个儿子结点小 大根堆:最上层数的大小最大,往下每层结点 ...
- [原创]一种专门用于前后端分离的web服务器(JerryServer)
如果你还不了解现在的前后端分离,推荐阅读淘宝前端团队的前后端分离的思考与实践 1.问题 随着现在整个软件开发行业的发展,在开发模式上逐渐由以前的一个人完成服务端和前端web页面,演变为前端和后端逐渐分 ...
- Command "python setup.py egg_info" failed with error code 1 in C:\Users\w5659\AppData\Local\Temp\pip-install-t7uomu4r\xa dmin\
Error msg: C:\Users\w5659>pip install xadmin Collecting xadmin Using cached https://files.pythonh ...