利用强化学习算法解释人类脑对高维状态的抽象表示:how humans can map high-dimensional sensory inputs in actions
论文:
《Using deep reinforcement learning to reveal how the brain encodes abstract state-space representations in high-dimensional environments》
地址:
https://www.cell.com/neuron/fulltext/S0896-6273(20)30899-0
正文:
https://www.cell.com/neuron/pdf/S0896-6273(20)30899-0.pdf
补充信息:
https://www.cell.com/cms/10.1016/j.neuron.2020.11.021/attachment/57cc3979-b15e-468c-a4df-e8927360c70e/mmc1
文章的主要表达思想:
In Brief
Cross et al. scanned humans playing Atari
games and utilized a deep reinforcement
learning algorithm as a model for how
humans can map high-dimensional
sensory inputs in actions.
Representations in the intermediate
layers of the algorithm were used to
predict behavior and neural activity
throughout a sensorimotor pathway.
由于这个论文是生命科学的,属于生物学论文,虽然是使用AI算法中的DQN算法的原理来类比人类脑,但是主要的内容还是围绕生命科学的,因此没有太多的理解,不过文章中的一个观点感觉还是有些启发的:
分别使用CNN和VAE作为强化学习算法DQN的特征提取部分对算法性能的影响?
标准的DQN是使用CNN网络模型的,但是如果我们把一个训练好的基于CNN的DQN模型作为对比,把这个DQN模型对某个游戏环境运行得到的数据来训练一个VAE,然后用这个VAE来训练一个新的基于VAE的DQN,那么这个基于VAE的DQN的性能是会差于基于CNN模型的DQN的;文章中把这个分析为在训练基于神经网络的DQN时,如果把映射的动作信息和奖励回报值加入到训练中,也就是使用CNN模型的DQN,那么会得到更好的算法性能;在使用CNN的DQN进行训练时会把high level的特征提取出来,而不会把low level的特征提取出来,而VAE则是会报所有的信息都提取出来,而像基于CNN的DQN算法最后进行策略训练时使用的状态特征是筛除更高特征的信息,是和动作和奖励回报相关的,因此性能会更好。
利用强化学习算法解释人类脑对高维状态的抽象表示:how humans can map high-dimensional sensory inputs in actions的更多相关文章
- 一文读懂 深度强化学习算法 A3C (Actor-Critic Algorithm)
一文读懂 深度强化学习算法 A3C (Actor-Critic Algorithm) 2017-12-25 16:29:19 对于 A3C 算法感觉自己总是一知半解,现将其梳理一下,记录在此,也 ...
- 强化学习算法DQN
1 DQN的引入 由于q_learning算法是一直更新一张q_table,在场景复杂的情况下,q_table就会大到内存处理的极限,而且在当时深度学习的火热,有人就会想到能不能将从深度学习中借鉴方法 ...
- 强化学习算法Policy Gradient
1 算法的优缺点 1.1 优点 在DQN算法中,神经网络输出的是动作的q值,这对于一个agent拥有少数的离散的动作还是可以的.但是如果某个agent的动作是连续的,这无疑对DQN算法是一个巨大的挑战 ...
- 【转载】 准人工智能分享Deep Mind报告 ——AI“元强化学习”
原文地址: https://www.sohu.com/a/231895305_200424 ------------------------------------------------------ ...
- 【转载】 “强化学习之父”萨顿:预测学习马上要火,AI将帮我们理解人类意识
原文地址: https://yq.aliyun.com/articles/400366 本文来自AI新媒体量子位(QbitAI) ------------------------------- ...
- 强化学习(十七) 基于模型的强化学习与Dyna算法框架
在前面我们讨论了基于价值的强化学习(Value Based RL)和基于策略的强化学习模型(Policy Based RL),本篇我们讨论最后一种强化学习流派,基于模型的强化学习(Model Base ...
- 强化学习Q-Learning算法详解
python风控评分卡建模和风控常识(博客主亲自录制视频教程) https://study.163.com/course/introduction.htm?courseId=1005214003&am ...
- 【整理】强化学习与MDP
[入门,来自wiki] 强化学习是机器学习中的一个领域,强调如何基于环境而行动,以取得最大化的预期利益.其灵感来源于心理学中的行为主义理论,即有机体如何在环境给予的奖励或惩罚的刺激下,逐步形成对刺激的 ...
- 强化学习论文(Scalable agent alignment via reward modeling: a research direction)
原文地址: https://arxiv.org/pdf/1811.07871.pdf ======================================================== ...
- 【转载】 DeepMind发表Nature子刊新论文:连接多巴胺与元强化学习的新方法
原文地址: baijiahao.baidu.com/s?id=1600509777750939986&wfr=spider&for=pc 机器之心 18-05-15 14:26 - ...
随机推荐
- 加入域 " " 时出现了以下错误
加入域 " " 时出现了以下错误: 因为文件共享不安全,所以你不能连接到文件共享.此共享需要过时的 SMB1 协议,而此协议是不安全的,可能会使你的系统遭受攻击. 你的系统需要 S ...
- Grafana 开源了一款 eBPF 采集器 Beyla
eBPF 的发展如火如荼,在可观测性领域大放异彩,Grafana 近期也发布了一款 eBPF 采集器,可以采集服务的 RED 指标,本文做一个尝鲜介绍,让读者有个大概了解. eBPF 基础介绍可以参考 ...
- spring项目中读取resources下的文件
spring项目中读取resources下的文件 我们都知道,spring项目经过maven打包后,可以打成jar包或可解压的war包 a. war包是需要外置的web容器去运行的,是需要先解压的 b ...
- 算法金 | 一个强大的算法模型,GP !!
大侠幸会,在下全网同名「算法金」 0 基础转 AI 上岸,多个算法赛 Top 「日更万日,让更多人享受智能乐趣」 高斯过程算法是一种强大的非参数机器学习方法,广泛应用于回归.分类和优化等任务中.其核心 ...
- 订单号规则,不能重复。redis去重 redis集合set应用
订单号规则,不能重复.redis去重 redis集合set应用 redis锁定商品解决并发售卖问题 RedisUtil工具类https://www.cnblogs.com/oktokeep/p/179 ...
- Nginx配置文件nginx.conf中location的匹配原则
一.空格:默认匹配.普通匹配 location / { root /home; } 二.= :精确匹配(表示匹配到 /home/resources/img/face.png 这张图片) locati ...
- Windows10在WSL中运行GUI应用
0. 首先在WSL装X11相关环境 需要安装x11和桌面环境, 在这里装的是xfce4 sudo apt install x11-apps sudo apt install xfce4 有两种显示 ...
- 设备树DTS 学习:3-驱动开发中常用的 DTS api
背景 本章的内容是为了实现在驱动中的开发,通过调用有关的api来寻找设备树节点熟悉,从而达到使用设备树进行驱动开发的目的. 参考:Linux内核 设备树操作常用API Linux设备树语法详解一文中介 ...
- 广播变量的使用-----通过ip查询属于哪个省份
1,为什么要使用广播变量? 举一个简单的例子,我们要处理一份log文件,里面有ip地址. 20090121000132095572000|125.213.100.123|show.51.com|/sh ...
- 韦东山freeRTOS系列教程之【第五章】队列(queue)
目录 系列教程总目录 概述 5.1 队列的特性 5.1.1 常规操作 5.1.2 传输数据的两种方法 5.1.3 队列的阻塞访问 5.2 队列函数 5.2.1 创建 5.2.2 复位 5.2.3 删除 ...