原文地址: baijiahao.baidu.com/s?id=1600509777750939986&wfr=spider&for=pc 机器之心 18-05-15   14:26 --------------------------------------------------------------------------------------------- 上周,DeepMind在 Nature 发表论文,用 AI 复现大脑的导航功能. 今天,DeepMind 在 Nature…
原文地址: https://www.sohu.com/a/231895305_200424 --------------------------------------------------------------------------------------------- 前言 比起人类,深度学习算法已经在很多任务上的表现更优秀.但它们的学习效率很低.一个电子游戏,人类玩一个下午大概就会了,而算法得花上百个小时.Deep Mind认为,这可能是人类的元学习能力占了优势. Deep Mind…
原文地址: http://www.dataguru.cn/article-13548-1.html ------------------------------------------------------------------------------- https://baijiahao.baidu.com/s?id=1625146459890383305&wfr=spider&for=pc https://link.springer.com/content/pdf/10.1023%…
这是一篇被ICLR 2019 接收的论文.论文讨论了如何利用场景先验知识 (scene priors)来定位一个新场景(novel scene)中未曾见过的物体(unseen objects).举例来说,在「厨房」这一场景中,有一张图片显示「苹果」在冰箱的储物架上,同为水果的物体,如「橙子」,会出现在场景的哪个位置呢?论文提出了用基于强化学习的方法来定位「橙子」. 论文:VISUAL SEMANTIC NAVIGATION USING SCENE PRIORS 论文作者:Wei Yang , X…
https://blog.csdn.net/y80gDg1/article/details/81463731 感谢阅读腾讯AI Lab微信号第34篇文章.当地时间 7 月 10-15 日,第 35 届国际机器学习会议(ICML 2018)在瑞典斯德哥尔摩成功举办.ICML 2018 所接收的论文的研究主题非常多样,涵盖深度学习模型/架构/理论.强化学习.优化方法.在线学习.生成模型.迁移学习与多任务学习.隐私与安全等,在本文中,腾讯 AI Lab 的研究者结合自身的研究重心和研究兴趣对部分 IC…
http://lib.csdn.net/article/aimachinelearning/68113 原文地址:http://blog.csdn.net/jinzhuojun/article/details/77144590 和其它的机器学习方向一样,强化学习(Reinforcement Learning)也有一些经典的实验场景,像Mountain-Car,Cart-Pole等.话说很久以前,因为没有统一的开发测试平台,大家都会自己实现,有用C/C++的,有用Python,还有用Matlab的…
原文地址: https://www.cnblogs.com/pinard/p/9529828.html -------------------------------------------------------------------------------------------------- 在强化学习(四)用蒙特卡罗法(MC)求解中,我们讲到了使用蒙特卡罗法来求解强化学习问题的方法,虽然蒙特卡罗法很灵活,不需要环境的状态转化概率模型,但是它需要所有的采样序列都是经历完整的状态序列.如果…
原文地址: https://www.cnblogs.com/pinard/p/9756075.html ------------------------------------------------------------------------------------------------------- 在强化学习(八)价值函数的近似表示与Deep Q-Learning中,我们讲到了Deep Q-Learning(NIPS 2013)的算法和代码,在这个算法基础上,有很多Deep Q-Le…
Hinton“深度学习之父”和“神经网络先驱”,新论文Capsule将推翻自己积累了30年的学术成果时 在论文中,Capsule被Hinton大神定义为这样一组神经元:其活动向量所表示的是特定实体类型的实例化参数.他的实验表明,鉴别式训练的多层Capsule系统,在MNIST手写数据集上表现出目前最先进的性能,并且在识别高度重叠数字的效果要远好于CNN. 该论文无疑将是今年12月初NIPS大会的重头戏. 一个月前,在多伦多接受媒体采访时,Hinton大神断然宣称要放弃反向传播,让整个人工智能从头…
参考: Mean Shift Tracking: 2000-2012回顾 (新论文更新) ECCV2016要来了,估计深度学习要一统天下了吧…
转自:http://www.ibm.com/developerworks/cn/web/wa-lo-comet/ 很多应用譬如监控.即时通信.即时报价系统都需要将后台发生的变化实时传送到客户端而无须客户端不停地刷新.发送请求.本文首先介绍.比较了常用的“服务器推”方案,着重介绍了 Comet - 使用 HTTP 长连接.无须浏览器安装插件的两种“服务器推”方案:基于 AJAX 的长轮询方式:基于 iframe 及 htmlfile 的流方式.最后分析了开发 Comet 应用需要注意的一些问题,以…
在Windows平台上主要有两个版本的Socket Api函数:WinSock 1.1和WinSock 2.2 , 2.2版本默认兼容1.1版本,1.1 winsock.h wsock32.lib winsock.dll2.2 winsock2.h ws2 32.lib ws2 32.dll 2.0版本的Socket比1.1的多一些高级的功能如:多重协议支持:通过SPI接口支持其他协议;多重命名空间:根据服务与主机名选择协议重叠10模式:增强10吞吐量与提高性能分散与聚合:从多个缓冲区发送与接收…
本文转自:http://mp.weixin.qq.com/s/aAHbybdbs_GtY8OyU6h5WA 专题 | 深度强化学习综述:从AlphaGo背后的力量到学习资源分享(附论文) 原创 2017-01-28 Yuxi Li 机器之心 选自arXiv 作者:Yuxi Li 编译:Xavier Massa.侯韵楚.吴攀   摘要 本论文将概述最近在深度强化学习(Deep Reinforcement Learning)方面喜人的进展.本文将从深度学习及强化学习的背景知识开始,包括了对实验平台的…
在强化学习(八)价值函数的近似表示与Deep Q-Learning中,我们讲到了Deep Q-Learning(NIPS 2013)的算法和代码,在这个算法基础上,有很多Deep Q-Learning(以下简称DQN)的改进版,今天我们来讨论DQN的第一个改进版Nature DQN(NIPS 2015). 本章内容主要参考了ICML 2016的deep RL tutorial和Nature DQN的论文. 1. DQN(NIPS 2013)的问题 在上一篇我们已经讨论了DQN(NIPS 2013…
原文地址: https://www.cnblogs.com/pinard/p/9797695.html ---------------------------------------------------------------------------------------- 在强化学习(十)Double DQN (DDQN)中,我们讲到了DDQN使用两个Q网络,用当前Q网络计算最大Q值对应的动作,用目标Q网络计算这个最大动作对应的目标Q值,进而消除贪婪法带来的偏差.今天我们在DDQN的基础…
原文地址: https://www.cnblogs.com/pinard/p/9778063.html ----------------------------------------------------------------------------------------------- 在强化学习(九)Deep Q-Learning进阶之Nature DQN中,我们讨论了Nature DQN的算法流程,它通过使用两个相同的神经网络,以解决数据样本和网络训练之前的相关性.但是还是有其他值得…
这周,机器学习顶级会议 NIPS 2017 的论文评审结果已经通知到各位论文作者了,许多作者都马上发 Facebook/Twitter/Blog/ 朋友圈分享了论文被收录的喜讯.大家的熟人 Facebook 人工智能研究院研究员田渊栋也有一篇论文入选,论文名为「ELF: An Extensive, Lightweight and Flexible Research Platform for Real-time Strategy Games」.这篇论文介绍了他们构建的强化学习研究平台 ELF,为环…
原文地址: https://yq.aliyun.com/articles/400366 本文来自AI新媒体量子位(QbitAI)     ------------------------------------------------------------------------------------------- 摘要: 本文来自AI新媒体量子位(QbitAI) 地处加拿大埃德蒙顿的阿尔伯塔大学(UAlberta)可谓是强化学习重镇,这项技术的缔造者之一萨顿(Rich Sutton)在这里…
1 概述 在之前介绍的几种方法,我们对值函数一直有一个很大的限制,那就是它们需要用表格的形式表示.虽说表格形式对于求解有很大的帮助,但它也有自己的缺点.如果问题的状态和行动的空间非常大,使用表格表示难以求解,因为我们需要将所有的状态行动价值求解出来,才能保证对于任意一个状态和行动,我们都能得到对应的价值.因此在这种情况下,传统的方法,比如Q-Learning就无法在内存中维护这么大的一张Q表. 针对上面的问题,于是有人提出用一个模型来表示状态,动作到值函数的关系.我们令状态为 $s \in S…
原文地址: https://www.cnblogs.com/pinard/p/9714655.html ----------------------------------------------------------------------------------------- 在强化学习系列的前七篇里,我们主要讨论的都是规模比较小的强化学习问题求解算法.今天开始我们步入深度强化学习.这一篇关注于价值函数的近似表示和Deep Q-Learning算法. Deep Q-Learning这一篇对…
 原文地址: https://arxiv.org/pdf/1811.07871.pdf ======================================================== 如何让AI依照人类的意图行事?这是将AI应用于现实世界复杂问题的最大障碍之一. DeepMind将这个问题定义为“智能体对齐问题”,并提出了新的解决方案. 概述了解决agent alignment问题的研究方向.所提出的方法依赖于奖励建模的递归应用,以符合用户意图的方式解决复杂的现实世界问题. 强…
最近在学习斯坦福2017年秋季学期的<强化学习>课程,感兴趣的同学可以follow一下,Sergey大神的,有英文字幕,语速有点快,适合有一些基础的入门生. 今天主要总结上午看的有关DQN的一篇论文<Human-level control through deep reinforcement learning>,在Atari 2600 games上用DQN网络训练的,训练结果明,DQN能够比较稳定的收敛到Human-level的游戏水平. 前言 目前,强化学习已经在现实中很多复杂的…
本文基于Roslyn项目中的Issue:#347 展开讨论. 1. C# 7.0 新特性1: 基于Tuple的“多”返回值方法 2. C# 7.0 新特性2: 本地方法 3. C# 7.0 新特性3: 模式匹配 4. C# 7.0 新特性4: 返回引用 回顾 首先,提出一个问题,C#中,如何使一个方法可返回"多个"返回值? 我们先来回顾一下C#6.0 及更早版本的做法. 在C#中,通常我们有以下4种方式使一个方法返回多条数据. 使用 KeyValue 组合 static void Ma…
Sutton 出版论文的主页: http://incompleteideas.net/publications.html Phd  论文:   temporal credit assignment in reinforcement learning http://incompleteideas.net/publications.html#PhDthesis 最近在做强化学习方面的课题, 发现在强化学习方面被称作强化学习之父的  Sutton  确实很厉害, TD算法和策略梯度策略算法都是他所提出…
原文地址: https://www.cnblogs.com/pinard/p/9669263.html ----------------------------------------------------------------------------------------------------- 在强化学习(六)时序差分在线控制算法SARSA中我们讨论了时序差分的在线控制算法SARSA,而另一类时序差分的离线控制算法还没有讨论,因此本文我们关注于时序差分离线控制算法,主要是经典的Q-L…
原文地址: https://www.cnblogs.com/pinard/p/9614290.html ------------------------------------------------------------------------------------------------ 在强化学习(五)用时序差分法(TD)求解中,我们讨论了用时序差分来求解强化学习预测问题的方法,但是对控制算法的求解过程没有深入,本文我们就对时序差分的在线控制算法SARSA做详细的讨论. SARSA这一…
原文地址: https://www.cnblogs.com/pinard/p/9463815.html ----------------------------------------------------------------------------------------------- 在强化学习(二)马尔科夫决策过程(MDP)中,我们讨论了用马尔科夫假设来简化强化学习模型的复杂度,这一篇我们在马尔科夫假设和贝尔曼方程的基础上讨论使用动态规划(Dynamic Programming, D…
今年8月,Demis Hassabis等人工智能技术先驱们将来到雷锋网“人工智能与机器人创新大会”.在此,我们为大家分享David Silver的论文<不完美信息游戏中的深度强化学习自我对战>.本篇论文主要以扑克进行实验,探讨深度强化学习与普通强化学习相比的优势.研究此类游戏不只是可以让程序打赢人类大师,还可以帮助开发算法,应用于更复杂的真实世界环境中,例如机场和网络安全.金融和能源贸易.交通管制和疏导,帮助人们在不完美的信息和高维度信息状态空间中进行决策.深度强化学习不需要依赖人类专家的原有…
Move是一种新的编程语言,旨在为Libra Blockchain提供安全可编程的基础.Libra Blockchain中的帐户是任意数量的Move资源和Move模块的容器.提交给Libra Blockchain的每个事务都使用Move中编写的事务脚本来编码其逻辑.事务脚本可以调用模块声明的过程来更新区块链的全局状态. 在本指南的第一部分中,我们将对Move语言的主要功能进行高级介绍: 移动事务脚本启用可编程事务 移动模块允许可组合智能合约 移动有一流的资源 对于好奇的读者,Move技术论文包含…
CVPR2018论文看点:基于度量学习分类与少镜头目标检测 简介 本文链接地址:https://arxiv.org/pdf/1806.04728.pdf 距离度量学习(DML)已成功地应用于目标分类,无论是在训练数据丰富的标准体系中,还是在每个类别仅用几个例子表示的few-shot场景中.在中,提出了一种新的DML方法,在一个端到端训练过程中,同时学习主干网络参数.嵌入空间以及该空间中每个训练类别的多模态分布.对于基于各种标准细粒度数据集的基于DML的目标分类,方法优于最先进的方法.此外,将提出…