ICANN 2001-Learning to Learn Using Gradient Descent
Key
Gradient Descent+LSTM元学习器
解决的主要问题
在之前的机器学习的学习方法中,不会利用到之前的经验,利用到之前经验的“knowledge transfer”(元学习是其中一个)。meta-learner会搜索并找到适合特定学习任务的学习算法。要想有这样的学习方法,必须增加一个监督算法来审查和修改训练算法。现有的方法中是存在“人作为监督器”。
作者主要是通过适当的系统替换人体部分,自动获得这种学习方法的改进。处理多个自由参数
文章内容
Introduction
介绍元学习系统的组成:固定的监督系统和可调整的从属系统
Theoretical considerations
数据如何设置
- 从属系统input:y(j-1),x(j)
- 监督属系统input:y(j),x(j),output(从属系统)
如果元学习系统输出不是正确的target y(j),元学习系统就会在每个时间点受到惩罚,这就迫使元学习系统对从属算法进行改进,使其变得更快更准确
为何选择循环架构LSTM
(公式推导没看懂)
查阅资料上的理解:考虑到梯度爆炸和梯度消失现象,所以使用LSTM从bayes角度理解
元学习可以被视为不断地适应和移动超参数和先验(“归纳偏差移动”)
Experiments
分别实验布尔函数、半线性函数、二次函数
Conclusion
以前的元学习方法对于大量的系统参数是不可行的。为了处理多个自由参数,提出了利用递归网的梯度下降法在元学习中的应用。
理论分析表明,LSTM是一种良好的元学习者,实验也证实了这一点。通过一个LSTM网络,我们的系统得到了一个学习算法,可以在35个例子后近似任何二次函数。
该方法需要一个单一的训练序列,因此,它可能适用于终身学习和自主机器人。
提出的元学习器能够进行非平稳时间序列预测。我们演示了机器如何从零开始推导出新颖、快速的算法
文章方法的优缺点
- 优点
- 对于含有大量参数的系统,梯度下降处理会比较容易
- LSTM会利用之前经验信息
- 缺点
- 基于上下文的,RL中在处理的时候需要一个完整episode
论文链接
[版权归原作者 Lee_ing 所有]
未经原作者允许不得转载本文内容,否则将视为侵权;
ICANN 2001-Learning to Learn Using Gradient Descent的更多相关文章
- (转)Paper list of Meta Learning/ Learning to Learn/ One Shot Learning/ Lifelong Learning
Meta Learning/ Learning to Learn/ One Shot Learning/ Lifelong Learning 2018-08-03 19:16:56 本文转自:http ...
- FITTING A MODEL VIA CLOSED-FORM EQUATIONS VS. GRADIENT DESCENT VS STOCHASTIC GRADIENT DESCENT VS MINI-BATCH LEARNING. WHAT IS THE DIFFERENCE?
FITTING A MODEL VIA CLOSED-FORM EQUATIONS VS. GRADIENT DESCENT VS STOCHASTIC GRADIENT DESCENT VS MIN ...
- (转)Introduction to Gradient Descent Algorithm (along with variants) in Machine Learning
Introduction Optimization is always the ultimate goal whether you are dealing with a real life probl ...
- [Machine Learning] 梯度下降(BGD)、随机梯度下降(SGD)、Mini-batch Gradient Descent、带Mini-batch的SGD
一.回归函数及目标函数 以均方误差作为目标函数(损失函数),目的是使其值最小化,用于优化上式. 二.优化方式(Gradient Descent) 1.最速梯度下降法 也叫批量梯度下降法Batch Gr ...
- machine learning (7)---normal equation相对于gradient descent而言求解linear regression问题的另一种方式
Normal equation: 一种用来linear regression问题的求解Θ的方法,另一种可以是gradient descent 仅适用于linear regression问题的求解,对其 ...
- machine learning(10) -- classification:logistic regression cost function 和 使用 gradient descent to minimize cost function
logistic regression cost function(single example) 图像分布 logistic regression cost function(m examples) ...
- Logistic Regression and Gradient Descent
Logistic Regression and Gradient Descent Logistic regression is an excellent tool to know for classi ...
- (转) An overview of gradient descent optimization algorithms
An overview of gradient descent optimization algorithms Table of contents: Gradient descent variants ...
- 斯坦福机器学习视频笔记 Week1 Linear Regression and Gradient Descent
最近开始学习Coursera上的斯坦福机器学习视频,我是刚刚接触机器学习,对此比较感兴趣:准备将我的学习笔记写下来, 作为我每天学习的签到吧,也希望和各位朋友交流学习. 这一系列的博客,我会不定期的更 ...
- An overview of gradient descent optimization algorithms
原文地址:An overview of gradient descent optimization algorithms An overview of gradient descent optimiz ...
随机推荐
- CF1141 Div3 欢乐信心赛
非常轻松的比赛,连我这样的菜鸡也感到充满力量. A 用类似于质因数分解的操作搞一搞即可. B 将环复制一遍. C 可以发现 \(q\) 就是差分数组.那么差分数组之和最大的地方就是原序列的最大值,为 ...
- CSP-S划分 解题报告
n <= 10 爆搜即可 n <= 50 什么乱搞 n <= 400 有一个 \(n^3\) 的 dp 设 dp[i][j] 表示最后一段为 j+1~i 时的最小值 直接三层循环转移 ...
- Windows的压缩文件夹(zip/cab)
https://weibo.com/1114096665/DtHXgvnva #windows10# 硬要把zip.cab文件当文件夹,不爽怎么解决? 删除注册表 "HKEY_CLASSES ...
- 第四部分:Spdlog日志库的核心组件分析-logger
Spdlog是一个快速且可扩展的C++日志库,它支持多线程和异步日志记录.在本文中,我们将分析Spdlog日志库的核心代码,探究其实现原理和代码结构. Spdlog的基本架构 上一篇文章介绍了spdl ...
- ArrayBuffer、Float32Array、Uint8Array 详解
ArrayBuffer ArrayBuffer()是一个普通的JavaScript构造函数,可用于在内存中分配特定数量的字节空间. const buf = new ArrayBuffer(16); / ...
- IOC创建对象方式
IOC创建对象方式 User 类 public class User { private String name; public User(String name) { ...
- kubernetes (k8s) v1.24.0 安装dashboard面板
kubernetes (k8s) v1.24.0 安装dashboard面板 介绍 v1.24.0 使用之前的安装方式,在安装过程中会有一些异常,此文档已修复已知问题. 下载所需配置 root@k8s ...
- [Linux/Java SE]查看JAR包内的类 | JAR 命令 | 反编译
1 查看JAR包内的类 另一个思路: 解压JAR包jar -xf <jarPath> 1-1 单JAR包 -t list table of contents for archive(列出存 ...
- 理解String、StringBuilder和StringBuffer
1. String.StringBuilder和StringBuffer异同 相同点:底层都是通过char数组实现的 不同点: String对象一旦创建,其值是不能修改的,如果要修改,会重新开辟内存空 ...
- 迁移学习()《Attract, Perturb, and Explore: Learning a Feature Alignment Network for Semi-supervised Domain Adaptation》
论文信息 论文标题:Attract, Perturb, and Explore: Learning a Feature Alignment Network for Semi-supervised Do ...