强化学习之Sarsa (时间差分学习)
上篇文章讲到Q-learning, Sarsa与Q-learning的在决策上是完全相同的,不同之处在于学习的方式上
这次我们用openai gym的Taxi来做演示
Taxi是一个出租车的游戏,把顾客送到目的地+20分,每走一步-1分,如果在路上把乘客赶下车的话扣10分
简要
Sarsa是一种在线学习算法,也就是on-polic,Sarsa在每次更新算法时都是基于确定的action,而Q-learning还没有确定
Sarsa相对比较保守,他的每一步行动都是基于下一个Q(s',a')来完成的
我们来看Sarsa的算法部分
是不是看起来很眼熟,没错和Q-learning的区别很小
Q-learning每次都时action'都选择最大化,而Sarsa每次更新都会选择下一个action,在我们对代码中对应的代码也就是
obervation_, reward, done, info=env.step(action)
action_=choise(obervation_)
游戏开始
首先我们初始化游戏环境
import gym
import numpy as np env=gym.make('Taxi-v2')
env.seed(1995) MAX_STEP=env.spec.timestep_limit
ALPHA=0.01
EPS=1
GAMMA=0.8
TRACE_DACAY=0.9
q_table=np.zeros([env.observation_space.n,env.action_space.n],dtype=np.float32)
eligibility_trace=np.zeros([env.observation_space.n,env.action_space.n],dtype=np.float32)
对没错,Sarsa还是需要Q表来保存经验的,细心的小伙伴们一定发现我们多了一个eligibility_trace的变量,这个是做什么用的呢,这个是用来保存每个回合的每一步的,在新的回合开始后就会清零
Sarsa的决策上还是和Q-learning相同的
def choise(obervation):
if np.random.uniform()<EPS:
action=env.action_space.sample()
else:
action=np.argmax(q_table[obervation])
return action
下面是我们的核心部分,就是学习啦^_^
#这里是Q-learning的学习更新部分
def learn(state,action,reward,obervation_):
q_table[state][action]+=ALPHA*(reward+GAMMA*(max(q_table[obervation_])-q_table[state,action]))
#这里是Sarsa的学习更新部分
def learn(state,action,reward,obervation_,action_):
global q_table,eligibility_trace
error=reward + GAMMA * q_table[obervation_,action_] - q_table[state, action]
eligibility_trace[state]*=0
eligibility_trace[state][action]=1 q_table+=ALPHA*error*eligibility_trace
eligibility_trace*=GAMMA*TRACE_DACAY
哒当,我用红线标示出来了,聪明的你一定发现了不同对吧
青色标示出来的代表的意思是没经历一轮,我们让他+1证明这是获得reward中不可获取的一步
最后一行
eligibility_trace*=GAMMA*TRACE_DACAY
随着时间来衰减eligibility_trace的值,离获取reward越远的步,他的必要性也就越小
GAME OVER
让我们大干一场吧
下面是所有的代码,小伙伴们快来运行把
import gym
import numpy as np env=gym.make('Taxi-v2')
env.seed(1995) MAX_STEP=env.spec.timestep_limit
ALPHA=0.01
EPS=1
GAMMA=0.8
TRACE_DACAY=0.9
q_table=np.zeros([env.observation_space.n,env.action_space.n],dtype=np.float32)
eligibility_trace=np.zeros([env.observation_space.n,env.action_space.n],dtype=np.float32) def choise(obervation):
if np.random.uniform()<EPS:
action=env.action_space.sample()
else:
action=np.argmax(q_table[obervation])
return action def learn(state,action,reward,obervation_,action_):
global q_table,eligibility_trace
error=reward + GAMMA * q_table[obervation_,action_] - q_table[state, action]
eligibility_trace[state]*=0
eligibility_trace[state][action]=1 q_table+=ALPHA*error*eligibility_trace
eligibility_trace*=GAMMA*TRACE_DACAY SCORE=0
for exp in xrange(50000):
obervation=env.reset()
EPS-= 0.001 action=choise(obervation)
eligibility_trace*=0 for i in xrange(MAX_STEP):
# env.render()
obervation_, reward, done, info=env.step(action)
action_=choise(obervation_) learn(obervation,action,reward,obervation_,action_) obervation=obervation_
action=action_ SCORE+=reward
if done:
break if exp % 1000 == 0:
print 'esp,score (%d,%d)' % (exp, SCORE)
SCORE = 0 print 'fenshu is %d'%SCORE
欢迎大家一起来学习^_^
最后附上一幅结果图
效率明显提高了^_^
强化学习之Sarsa (时间差分学习)的更多相关文章
- 增强学习(五)----- 时间差分学习(Q learning, Sarsa learning)
接下来我们回顾一下动态规划算法(DP)和蒙特卡罗方法(MC)的特点,对于动态规划算法有如下特性: 需要环境模型,即状态转移概率\(P_{sa}\) 状态值函数的估计是自举的(bootstrapping ...
- 强化学习读书笔记 - 06~07 - 时序差分学习(Temporal-Difference Learning)
强化学习读书笔记 - 06~07 - 时序差分学习(Temporal-Difference Learning) 学习笔记: Reinforcement Learning: An Introductio ...
- 【Todo】【转载】深度学习&神经网络 科普及八卦 学习笔记 & GPU & SIMD
上一篇文章提到了数据挖掘.机器学习.深度学习的区别:http://www.cnblogs.com/charlesblc/p/6159355.html 深度学习具体的内容可以看这里: 参考了这篇文章:h ...
- 蓝牙芯片NRF51822入门学习1:时间管理
前言 之前辞职找工作的时候发现,很多公司希望招聘蓝牙技术方面的人才,所以干脆丢开LWIP静下心来学习蓝牙技术.原本以为一两星期能基本学会的,谁知道所选的蓝牙芯片nrf51822是个坑货,坑了我一个月. ...
- "做中学"之“极客时间”课程学习指导
目录 "做中学"之"极客时间"课程学习指导 所有课程都可以选的课程 Java程序设计 移动平台开发 网络攻防实践 信息安全系统设计基础 信息安全专业导论 极客时 ...
- JDK1.8日期时间库学习
这周在阅读<阿里巴巴Java开发手册>时,在并发处理一节的日期处理中,其强调SimpleDateFormat 是线程不安全的类,一般不要定义为 static 变量,如果 定义为 stati ...
- Python - 记录我开始学习Python的时间节点
记录我开始学习Python的时间节点 2019-09-22 从明天开始我要开始学习Python了,坚持学习.坚持写博客,慢慢积累. 结合实例项目,最好能把目前在做的项目用Python实现. 加油!
- SIGAI深度学习第四集 深度学习简介
讲授机器学习面临的挑战.人工特征的局限性.为什么选择神经网络.深度学习的诞生和发展.典型的网络结构.深度学习在机器视觉.语音识别.自然语言处理.推荐系统中的应用 大纲: 机器学习面临的挑战 特征工程的 ...
- ElasticSearch 5学习(7)——分布式集群学习分享2
前面主要学习了ElasticSearch分布式集群的存储过程中集群.节点和分片的知识(ElasticSearch 5学习(6)--分布式集群学习分享1),下面主要分享应对故障的一些实践. 应对故障 前 ...
随机推荐
- 在centos7中手动编译greenplum
一.编译环境 Linux version 3.10.0-327.el7.x86_64 (builder@kbuilder.dev.centos.org) (gcc version 4.8.3 2014 ...
- 基于lucene.net 和ICTCLAS2014的站内搜索的实现1
Lucene.net是一个搜索引擎的框架,它自身并不能实现搜索.须要我们自己在当中实现索引的建立,索引的查找.全部这些都是依据它自身提供的API来实现.Lucene.net本身是基于java的,可是经 ...
- 重要经验五:block作为属性的注意事项
现代ios应用的开发.不使用GCD和block,效率会减少非常多,在今年3月份之前,我在block的学习和使用方面,精力和经验都明显不足,在SF有个牛逼同事.不仅自己积累了一套库,并且对这个库持续进行 ...
- Linux转发性能评估与优化(转发瓶颈分析与解决方式)
线速问题 非常多人对这个线速概念存在误解. 觉得所谓线速能力就是路由器/交换机就像一根网线一样. 而这,是不可能的.应该考虑到的一个概念就是延迟. 数据包进入路由器或者交换机,存在一个核心延迟操作,这 ...
- [前端] jquery验证手机号、身份证号、中文名称
验证: 中文姓名.手机号.身份证和地址 HTML(表单): <form action=""> <div class="form-group"& ...
- java萌新尝试搭建WordPress记录
问题1:安装好PHP环境没找好mysql路径,导致不能调用数据库模块 解决方案:重装一次,参考链接 https://www.cnblogs.com/yangxia-test/p/4174372.htm ...
- angularf封装echarts
前言:angular中快速使用echarts 在html使用ehart很简单,你只需要引入文件和按照官方例子按照对应参数配置和数据填充就Ok了,那么在angular中怎么使用eharts(可以使用ec ...
- android 分享一个处理BaseAdapter,getView()多次加载的方法
一:BaseAdapter介绍 BaseAdapter是listview,gridview等列表,使用的数据适配器,它的主要用途是将一组数据传到ListView.Spinner.Gallery及Gri ...
- 微信小程序使用场景延伸:扫码登录、扫码支付
微信小程序使用场景延伸:扫码登录.扫码支付 小程序最适合的使用场景有哪些?相比大家能列举出来很多,但这个场景,大家可能多数没想到_^ 笔者团队近期接到了一个PC项目:转转游戏租号PC官网,该项目要求在 ...
- bzoj 4444: [Scoi2015]国旗计划
Description A国正在开展一项伟大的计划--国旗计划.这项计划的内容是边防战士手举国旗环绕边境线奔袭一圈.这 项计划需要多名边防战士以接力的形式共同完成,为此,国土安全局已经挑选了N名优秀的 ...