强化学习 车杆游戏 DQN 深度强化学习 Demo
网上搜寻到的代码,亲测比较好用,分享如下。
import gym
import time env = gym.make('CartPole-v0') # 获得游戏环境
observation = env.reset() # 复位游戏环境,新一局游戏开始
print ('新一局游戏 初始观测 = {}'.format(observation))
for t in range(200):
env.render()
action = env.action_space.sample() # 随机选择动作
print ('{}: 动作 = {}'.format(t, action))
observation, reward, done, info = env.step(action) # 执行行为
print ('{}: 观测 = {}, 本步得分 = {}, 结束指示 = {}, 其他信息 = {}'.format(
t, observation, reward, done, info))
if done:
break
time.sleep(1)#可加可不加,有的话就可以看到图 env.close()

以下给出多个回合的代码:
import gym
env = gym.make('CartPole-v0')
n_episode = 20
for i_episode in range(n_episode):
observation = env.reset()
episode_reward = 0
while True:
# env.render()
action = env.action_space.sample() # 随机选
observation, reward, done, _ = env.step(action)
episode_reward += reward
state = observation
if done:
break
print ('第{}局得分 = {}'.format(i_episode, episode_reward))
env.close()

这次的多回合游戏并没有加入绘图,需要绘图的话可以将 env.render() 加入。
构建一个完整的 DQN 网络, 代码如下:
#encoding:UTF-8 #Cart Pole Environment
import gym
env = gym.make('CartPole-v0') #搭建 DQN
import torch.nn as nn
model = nn.Sequential(
nn.Linear(env.observation_space.shape[0], 128),
nn.ReLU(),
nn.Linear(128, 128),
nn.ReLU(),
nn.Linear(128, env.action_space.n)
) import random
def act(model, state, epsilon):
if random.random() > epsilon: # 选最大的
state = torch.FloatTensor(state).unsqueeze(0)
q_value = model.forward(state)
action = q_value.max(1)[1].item()
else: # 随便选
action = random.randrange(env.action_space.n)
return action #训练
# epsilon值不断下降
import math
def calc_epsilon(t, epsilon_start=1.0,
epsilon_final=0.01, epsilon_decay=500):
epsilon = epsilon_final + (epsilon_start - epsilon_final) \
* math.exp(-1. * t / epsilon_decay)
return epsilon # 最近历史缓存
import numpy as np
from collections import deque batch_size = 32 class ReplayBuffer(object):
def __init__(self, capacity):
self.buffer = deque(maxlen=capacity) def push(self, state, action, reward, next_state, done):
state = np.expand_dims(state, 0)
next_state = np.expand_dims(next_state, 0)
self.buffer.append((state, action, reward, next_state, done)) def sample(self, batch_size):
state, action, reward, next_state, done = zip( \
*random.sample(self.buffer, batch_size))
concat_state = np.concatenate(state)
concat_next_state = np.concatenate(next_state)
return concat_state, action, reward, concat_next_state, done def __len__(self):
return len(self.buffer) replay_buffer = ReplayBuffer(1000) import torch.optim
optimizer = torch.optim.Adam(model.parameters()) gamma = 0.99 episode_rewards = [] # 各局得分,用来判断训练是否完成
t = 0 # 训练步数,用于计算epsilon while True: # 开始新的一局
state = env.reset()
episode_reward = 0 while True:
epsilon = calc_epsilon(t)
action = act(model, state, epsilon)
next_state, reward, done, _ = env.step(action)
replay_buffer.push(state, action, reward, next_state, done) state = next_state
episode_reward += reward if len(replay_buffer) > batch_size: # 计算时间差分误差
sample_state, sample_action, sample_reward, sample_next_state, \
sample_done = replay_buffer.sample(batch_size) sample_state = torch.tensor(sample_state, dtype=torch.float32)
sample_action = torch.tensor(sample_action, dtype=torch.int64)
sample_reward = torch.tensor(sample_reward, dtype=torch.float32)
sample_next_state = torch.tensor(sample_next_state,
dtype=torch.float32)
sample_done = torch.tensor(sample_done, dtype=torch.float32) next_qs = model(sample_next_state)
next_q, _ = next_qs.max(1)
expected_q = sample_reward + gamma * next_q * (1 - sample_done) qs = model(sample_state)
q = qs.gather(1, sample_action.unsqueeze(1)).squeeze(1) td_error = expected_q - q # 计算 MSE 损失
loss = td_error.pow(2).mean() # 根据损失改进网络
optimizer.zero_grad()
loss.backward()
optimizer.step() t += 1 if done: # 本局结束
i_episode = len(episode_rewards)
print ('第{}局收益 = {}'.format(i_episode, episode_reward))
episode_rewards.append(episode_reward)
break if len(episode_rewards) > 20 and np.mean(episode_rewards[-20:]) > 195:
break # 训练结束 #使用 (固定 ϵ 的值为0)
n_episode = 20
for i_episode in range(n_episode):
observation = env.reset()
episode_reward = 0
while True:
# env.render()
action = act(model, observation, 0)
observation, reward, done, _ = env.step(action)
episode_reward += reward
state = observation
if done:
break
print ('第{}局得分 = {}'.format(i_episode, episode_reward))
训练过程:

测试过程:

以上代码来自:

该书阅读后个人感觉非常好,照比市面上的同类pytorch书籍相比该书虽然略显深奥,但是各方面的讲解脉络十分的清晰,在同类书籍中首推,而且全书所有代码都可以跑通,十分的难得。
强化学习 车杆游戏 DQN 深度强化学习 Demo的更多相关文章
- 基于Keras的OpenAI-gym强化学习的车杆/FlappyBird游戏
强化学习 课程:Q-Learning强化学习(李宏毅).深度强化学习 强化学习是一种允许你创造能从环境中交互学习的AI Agent的机器学习算法,其通过试错来学习.如上图所示,大脑代表AI Agent ...
- 深度强化学习(DRL)专栏开篇
2015年,DeepMind团队在Nature杂志上发表了一篇文章名为"Human-level control through deep reinforcement learning&quo ...
- 5G网络的深度强化学习:联合波束成形,功率控制和干扰协调
摘要:第五代无线通信(5G)支持大幅增加流量和数据速率,并提高语音呼叫的可靠性.在5G无线网络中共同优化波束成形,功率控制和干扰协调以增强最终用户的通信性能是一项重大挑战.在本文中,我们制定波束形成, ...
- 深度强化学习(Deep Reinforcement Learning)入门:RL base & DQN-DDPG-A3C introduction
转自https://zhuanlan.zhihu.com/p/25239682 过去的一段时间在深度强化学习领域投入了不少精力,工作中也在应用DRL解决业务问题.子曰:温故而知新,在进一步深入研究和应 ...
- 强化学习(十二) Dueling DQN
在强化学习(十一) Prioritized Replay DQN中,我们讨论了对DQN的经验回放池按权重采样来优化DQN算法的方法,本文讨论另一种优化方法,Dueling DQN.本章内容主要参考了I ...
- (转) 深度强化学习综述:从AlphaGo背后的力量到学习资源分享(附论文)
本文转自:http://mp.weixin.qq.com/s/aAHbybdbs_GtY8OyU6h5WA 专题 | 深度强化学习综述:从AlphaGo背后的力量到学习资源分享(附论文) 原创 201 ...
- 深度强化学习——连续动作控制DDPG、NAF
一.存在的问题 DQN是一个面向离散控制的算法,即输出的动作是离散的.对应到Atari 游戏中,只需要几个离散的键盘或手柄按键进行控制. 然而在实际中,控制问题则是连续的,高维的,比如一个具有6个关节 ...
- 强化学习(3)-----DQN
看这篇https://blog.csdn.net/qq_16234613/article/details/80268564 1.DQN 原因:在普通的Q-learning中,当状态和动作空间是离散且维 ...
- 深度强化学习(DQN-Deep Q Network)之应用-Flappy Bird
深度强化学习(DQN-Deep Q Network)之应用-Flappy Bird 本文系作者原创,转载请注明出处:https://www.cnblogs.com/further-further-fu ...
随机推荐
- wordpress防止网站被镜像四个方法
第一种:拆分域名链接与镜像站比对,然后用img标签src空值触发onerror来执行js比对,比对失败则跳转回源站.代码如下:(复制粘贴到主题的functions.php最后一个?>之前,代码出 ...
- U盘安装window系统
U盘安装window系统: 1. 制作系统启动U盘,推荐使用老毛桃. 2. 电脑上插入U盘,启动系统,选择U盘启动. 3. 进入老毛桃选择界面,选择生成PE系统.推荐win8,之前在一个戴尔电脑上使用 ...
- 20145221 《Java程序设计》实验报告一:Java开发环境的熟悉(Windows+IDEA)
20145221 <Java程序设计>实验报告一:Java开发环境的熟悉(Windows+IDEA) 实验要求 使用JDK编译.运行简单的Java程序: 使用IDEA 编辑.编译.运行.调 ...
- Javaworkers团队最终项目总结
Javaworkers团队最终项目总结 小组成员 20145205武钰 20145222黄亚奇 20145235李涛 20145103冯文华 团队项目总结 案例提出及工程用时 本次项目由十一到十六周共 ...
- FZU 1901 Period II(KMP中的next)题解
题意:给你一串字符串,问你前后缀相同情况有几种,并输出后缀位置(?这里一直没看懂length是什么,但是这样理解答案也对,然后还要加上本身长度) 思路:这里好好讲讲next的用法.我们都知道next代 ...
- 枚举子集&高位前缀和
最近做的题里面有这个东西,于是写一篇博客总结一下吧. 枚举子集 枚举子集就是状压的时候枚举其中的二进制位中的1的子集.直接暴力枚举二进制位时间复杂度是\(O(4^n)\),但是我们可以发现,对于每一位 ...
- Ubuntu 安装Docker
参考:官网 安装依赖包: $ sudo apt-get update $ sudo apt-get install -y --no-install-recommends \ linux-image-e ...
- key寻址算法
分布式寻址算法 hash 算法(大量缓存重建) 一致性 hash 算法(自动缓存迁移)+ 虚拟节点(自动负载均衡) redis cluster 的 hash slot 算法 hash 算法 来了一个 ...
- JAVA消息 AMQP
AMQP(Advanced Message Queuing Protocol)高级的消息队列
- css3伪放大镜(图片放大动画)效果(鼠标移入圆形区域放大图片)
源码: <!DOCTYPE html><html lang="en"><head> <meta charset="UTF-8&q ...