[Stats385] Lecture 04: Convnets from Probabilistic Perspective
本篇围绕“深度渲染混合模型”展开。
- A Probabilistic Framework for Deep Learning
- Semi-Supervised Learning with the Deep Rendering Mixture Model
- A Probabilistic Theory of Deep Learning
13:49 / 1:30:37
GAN的统计意义:统计假设检验
GAN 一定意义上成为了classical statistical hypothesis testing,判断新产生的数据到底属于哪一个model。
CNN vs DRM Model
Weight: dictionaries
Value: sparse coding
Dropout: missing at randam data em algorithm
Back-propagation: m step of generalized em algorithm
Batch normalization: curvature normalization
AutoEncoder: em algorithm with reconstruction
Skip connection: preconditioning
19:30 / 1:30:37
Lecture starts.
先从视觉神经系统找到深度学习的依据;
然后开始提及常见的卷积网络,以及一些缺陷,例如暴雨天识别效果差。
- 从概率生成式模型 Generative Model入手
提到了Deep Rendering Mixture Model,深度渲染混合模型;可通过该链接初步了解:http://www.sohu.com/a/121834092_465975
Each Layer of the DRMM is a Sparse Coding Model.
Inference in the DRMM yields Deep Convnets
作为一种Probabilistic Framework for Deep Learning,更一般化,貌似convNet成了它的特例?
如此,DRM的角色是为人们设计新的神经网络结构作为指导。
- 从动态规划的角度去认识
The Dynamic Programming Algorithm Interpretation of Convnets
Saliency Maps show Selectivity and Invariance are Built up over Layers
Question: How do Convnets build up invariance to background?
Experiment: Visualize saliency maps for active neurons at each layer.
Observations:
• Neurons in early layers are selective for all detectable features in input, including background.
• Neurons in deeper layers are selective only for small subset of input pixels (those useful for discriminating class)
• Neurons in deep layers are invariant to (almost all) irrelevant pixels e.g. background and below the neck.
次要的特征逐渐被筛掉,相当于逐渐找到了更优路径。
说明关系的一张图,不错。
[Stats385] Lecture 04: Convnets from Probabilistic Perspective的更多相关文章
- [Stats385] Lecture 01-02, warm up with some questions
Theories of Deep Learning 借该课程,进入战略要地的局部战斗中,采用红色字体表示值得深究的概念,以及想起的一些需要注意的地方. Lecture 01 Lecture01: De ...
- [Stats385] Lecture 03, Harmonic Analysis of Deep CNN
大咖秀,注意提问环节大家的表情,深入窥探大咖的心态,很有意思. 之前有NG做访谈,现在这成了学术圈流行. Video: https://www.youtube.com/watch?v=oCohnBbm ...
- [Stats385] Lecture 05: Avoid the curse of dimensionality
Lecturer 咖中咖 Tomaso A. Poggio Lecture slice Lecture video 三个基本问题: Approximation Theory: When and why ...
- 本人AI知识体系导航 - AI menu
Relevant Readable Links Name Interesting topic Comment Edwin Chen 非参贝叶斯 徐亦达老板 Dirichlet Process 学习 ...
- 【机器学习Machine Learning】资料大全
昨天总结了深度学习的资料,今天把机器学习的资料也总结一下(友情提示:有些网站需要"科学上网"^_^) 推荐几本好书: 1.Pattern Recognition and Machi ...
- 【深度学习Deep Learning】资料大全
最近在学深度学习相关的东西,在网上搜集到了一些不错的资料,现在汇总一下: Free Online Books by Yoshua Bengio, Ian Goodfellow and Aaron C ...
- PRML读书会第十章 Approximate Inference(近似推断,变分推断,KL散度,平均场, Mean Field )
主讲人 戴玮 (新浪微博: @戴玮_CASIA) Wilbur_中博(1954123) 20:02:04 我们在前面看到,概率推断的核心任务就是计算某分布下的某个函数的期望.或者计算边缘概率分布.条件 ...
- 优化算法-BFGS
优化算法-BFGS BGFS是一种准牛顿算法, 所谓的"准"是指牛顿算法会使用Hessian矩阵来进行优化, 但是直接计算Hessian矩阵比较麻烦, 所以很多算法会使用近似的He ...
- 提升机器学习数学基础,这7本书一定要读-附pdf资源
文章发布于公号[数智物语] (ID:decision_engine),关注公号不错过每一篇干货. 来源 | KDnuggets 作者 | Ajit Jaokar 转自 | 新智元 编辑 | 大明 [编 ...
随机推荐
- 通过Microsoft.AspNetCore.App元包简化程序集的引用
Asp.net core下提供默认提供了一些在.net core不能直接使用的库,如日志.依赖注入.选项.通用主机.EntityFramework等,虽然我们可以通过Nuget的方式手动加载这些包,但 ...
- java异常中throw和throws的区别
throws和throwthrows:用来声明一个方法可能产生的所有异常,不做任何处理而是将异常往上传,谁调用我我就抛给谁. 用在方法声明后面,跟的是异常类名 可以跟多个异常类名,用逗号隔开 表 ...
- Android性能优化-App启动优化
原文地址:https://developer.android.com/topic/performance/launch-time.html#common 通常用户期望app响应和加载速度越快越好.一个 ...
- WIN10平板 如何修改网络IP地址为固定
右击网络,属性,更改适配器设置,然后可以找到当前的无线网络 然后依次点开即可修改IP地址
- .NET Core修改监听端口
把Program.cs加一行UseUrls代码如下: using System.IO; using Microsoft.AspNetCore.Hosting; using Microsoft.AspN ...
- cmd命令中截取日期字符
%date:~0,10% 表示年份
- ECMAScript 6 入门之变量的解构赋值
1.数组 1. var a=1,b=2,c=3; console.log("a:",a) console.log("b:",b) console.log(&qu ...
- 【Linux高级驱动】触摸屏驱动的移植
触摸屏驱动的移植 流程 注意:看框架图 1.添加input.c组件 Device Drivers ---> Input device support ---> Generic inp ...
- eslint 入门学习
想学eslint已经很久了,可是每次进到官网看一下就觉得头大,无法下手,但是最近到了年底,进行年度总结,作为一个有志向的程序媛,还是要追求编码规范的,因此今天再次拿起来了eslint,记录一下我的学习 ...
- el表达式字符串与变量拼接
${empty navigationMenu.pageid? '':'&mpage='.concat(navigationMenu.pageid)}