别看本文没有几页纸,本着把经典的文多读几遍的想法,把它彩印出来看,没想到效果很好,比在屏幕上看着舒服.若用蓝色的笔圈出重点,这篇文章中几乎要全蓝.字字珠玑. Reducing the Dimensionality of Data with Neural Networks G.E. Hinton and R.R. Salakhutdinov  摘要 训练一个带有很小的中间层的多层神经网络,可以重构高维空间的输入向量,实现从高维数据到低维编码的效果.(原文为high-dimensional data…
前言 论文“Reducing the Dimensionality of Data with Neural Networks”是深度学习鼻祖hinton于2006年发表于<SCIENCE >的论文,也是这篇论文揭开了深度学习的序幕. 笔记 摘要:高维数据可以通过一个多层神经网络把它编码成一个低维数据,从而重建这个高维数据,其中这个神经网络的中间层神经元数是较少的,可把这个神经网络叫做自动编码网络或自编码器(autoencoder).梯度下降法可用来微调这个自动编码器的权值,但是只有在初始化权值…
Deeplearning原文作者Hinton代码注解 Matlab示例代码为两部分,分别对应不同的论文: . Reducing the Dimensionality of data with neural networks ministdeepauto.m backprop.m rbmhidlinear.m . A fast learing algorithm for deep belief net mnistclassify.m backpropclassfy.m 其余部分代码通用. %%%%…
原文链接:http://www.ncbi.nlm.nih.gov/pubmed/16873662/ G. E. Hinton* and R. R. Salakhutdinov .   Science. 2006 Jul 28;313(5786):504-7. Abstract High-dimensional data can be converted to low-dimensional codes by training a multilayer neural network with a…
这篇paper来做什么的? 用神经网络来降维.之前降维用的方法是主成分分析法PCA,找到数据集中最大方差方向.(附:降维有助于分类.可视化.交流和高维信号的存储) 这篇paper提出了一种非线性的PCA 的推广,通过一个小的中间层来重构高维输入向量,训练一个多层神经网络.利用一个自适应的.多层的编码网络(Deep autoencoder networks),达到降维的目的. 这种降维方法,比主成分分析法PCA(principal compenent analysis)效果要好的多. 在这两种网络…
2006年,机器学习泰斗.多伦多大学计算机系教授Geoffery Hinton在Science发表文章,提出基于深度信念网络(Deep Belief Networks, DBN)可使用非监督的逐层贪心训练算法,为训练深度神经网络带来了希望.如果说Hinton 2006年发表在<Science>杂志上的论文[1]只是在学术界掀起了对深度学习的研究热潮,那么近年来各大巨头公司争相跟进,将顶级人才从学术界争抢到工业界,则标志着深度学习真正进入了实用阶段,将对一系列产品和服务产生深远影响,成为它们背后…
通过训练多层神经网络可以将高维数据转换成低维数据,其中有对高维输入向量进行改造的网络层.梯度下降可以用来微调如自编码器网络的权重系数,但是对权重的初始化要求比较高.这里提出一种有效初始化权重的方法,允许自编码器学习低维数据,这种降维方式比PCA表现效果更好. 降维有利于高维数据的分类.可视化.通信和存储.简单而普遍使用的降维方法是PCA(主要成分分析)--首先寻找数据集中方差最大的几个方向,然后用数据点在方向上的坐标来表示这条数据.我们将PCA称作一种非线性生成方法,它使用适应性的.多层"编码&…
****************内容加密中********************…
本文翻译自 SATYA MALLICK 的  "Neural Networks : A 30,000 Feet View for Beginners" 原文链接: https://www.learnopencv.com/neural-networks-a-30000-feet-view-for-beginners/ 翻译:coneypo 在这篇文章中,我会向大家简要的介绍下 Neural Networks / 神经网络: 可以作为 Machine Learning / 机器学习 和 D…
今天开始学模式识别与机器学习Pattern Recognition and Machine Learning (PRML),章节5.1,Neural Networks神经网络-前向网络. 话说上一次写这个笔记是13年的事情了···那时候忙着实习,找工作,毕业什么的就没写下去了,现在工作了有半年时间也算稳定了,我会继续把这个笔记写完.其实很多章节都看了,不过还没写出来,先从第5章开始吧,第2-4章比较基础,以后再补!基本是笔记+翻译,主要是自己写一下以后好翻阅. PRML第5章介绍了神经网络neu…