斯坦福CS231n—深度学习与计算机视觉----学习笔记 课时10
课时10 神经网络训练细节part1(上)
没有大量的数据也不会有太多影响,只需要找一个经过预训练的卷积神经网络然后进行调整

- 从数据集中抽样一小批数据,
- 将数据运入卷积神经网络中来计算损失值
- 通过反向传播来确定梯度
- 最后通过梯度值来微调权值的数值
sihmoid函数

是一个挤压函数,取值为0到1之间的实数
他的第一个问题:一个饱和的神经元,也就是说这个神经元的输出要么非常接近0要么非常接近1,这些神经元会导致在反向传播算法中出现梯度趋0的问题。这个问题就叫做梯度弥散(消失)。他有个激活区域。
另一个问题:他的输出不是关于原点中心对称的。收敛速度将会是非常慢的。
最后一个问题:和别的一些函数相比,该函数只能怪关于x的计算其实是很耗时的。
tanh(x)

解决了sigmoid函数不是关于原点对称的问题。他就好比两个sigmoid函数叠在一起,最终的输出处于-1到1之间
问题:梯度依旧可能饱和,这样梯度就无法在网络中传播
ReLU

首先他至少在输入为正时不会饱和;他在计算上是非常高效的,只需要进行比较而已;收敛的很快。我们将他称为ReLU神经网络或者修正线性单元。
问题:他也不是关于原点中心对称,还有就是,在反向传播中,当输入的神经元小于0时,梯度会消散。非激活的输入值无法进行反向传播,他的权值不会被更新,可以说他什么都不会做;当x为0时,梯度是未定义的。
出现神经元在数据集外的两种情况:一种是在初始化过程中,把权重设置成不能使神经元激活的数值,这种情况下神经元是不会训练的;更常见的情况是在训练过程中给你的学习率太高了,想象一下这些神经元在一定范围内波动,可能会发生数据多样性丢失,这种情况下神经元将不会再被激活,并且数据多样性的丢失不可逆转。
如何修正ReLU?
Leaky ReLU


基本思想就是阿尔法成为网络中的一个参数,可以通过反向传播学习这个参数
ELU

继承了ReLU的所有优点。
不同的激活函数会使你得到不同的权重值
优化过程不仅仅是有关损失函数的,还与梯度反向流转的动态过程有关
在图像中所有的特征都是像素,并且取值在0到255之间
在图像处理中常见的是均值中心化处理,每张图像以进行中心化处理从而获得更好的训练效果,另一种方法是减去单通道均值,在红绿蓝三色通道中分别计算最后得到三个数值
PCA存在的问题是不能应用于图像处理,因为图像有很多像素,是很多维的数据对象,所以协方差矩阵会非常庞大,人们可以做的是进行局部白化处理,就是在图像中加入一个白化过滤器
斯坦福CS231n—深度学习与计算机视觉----学习笔记 课时10的更多相关文章
- 斯坦福CS231n—深度学习与计算机视觉----学习笔记 课时3
课时3 计算机视觉历史回顾与介绍下 ImageNet有5000万张图片,全部都是人工清洗过得,标注了超过2万个分类. CS231n将聚焦于视觉识别问题,图像分类关注的是大图整体:物体检测告诉你东西具体 ...
- 斯坦福CS231n—深度学习与计算机视觉----学习笔记 课时1
课时1 计算机视觉历史回顾与介绍上 CS231n:这一一门关于计算机视觉的课程,基于一种专用的模型架构,叫做神经网络(更细一点说,是卷积神经网络CNN).计算机视觉是人工智能领域中发展最为迅猛的一个分 ...
- 斯坦福CS231n—深度学习与计算机视觉----学习笔记 课时26&&27
课时26 图像分割与注意力模型(上) 语义分割:我们有输入图像和固定的几个图像分类,任务是我们想要输入一个图像,然后我们要标记每个像素所属的标签为固定数据类中的一个 使用卷积神经,网络为每个小区块进行 ...
- 斯坦福CS231n—深度学习与计算机视觉----学习笔记 课时24&&25
课时24 深度学习开源库使用介绍(上) Caffe 被用于重新实现AlexNet,然后用AlexNet的特征来解决其他事情 用C++书写的,可以去GitHub上面读取源代码 主要四个类: Blob可以 ...
- 斯坦福CS231n—深度学习与计算机视觉----学习笔记 课时8&&9
课时8 反向传播与神经网络初步(上) 反向传播在运算连路中,这是一种通过链式法则来进行递推的计算过程,这个链路中的每一个中间变量都会对最终的损失函数产生影响. 链式法则通常包含两部分,局部梯度和后一层 ...
- 斯坦福CS231n—深度学习与计算机视觉----学习笔记 课时12&&13
课时12 神经网络训练细节part2(上) 训练神经网络是由四步过程组成,你有一个完整的数据集图像和标签,从数据集中取出一小批样本,我们通过网络做前向传播得到损失,告诉我们目前分类效果怎么样.然后我们 ...
- 斯坦福CS231n—深度学习与计算机视觉----学习笔记 课时11
课时11 神经网络训练细节part1(下) 2010年,Glorot等人写的论文,我们称之为Xavier初始化,他们关注了神经元的方差表达式.他们推荐一种初始化方式,那就是对每个神经元的输入进行开根号 ...
- 斯坦福CS231n—深度学习与计算机视觉----学习笔记 课时7
课时7 线性分类器损失函数与最优化(下) 我们为什么要最大化对数概率而非直接最大化概率? 你在做逻辑斯蒂回归时,如果你只是想要最大化概率,那你使用log是无意义的.因为log函数是单调函数,最大化概率 ...
- 斯坦福CS231n—深度学习与计算机视觉----学习笔记 课时14&&15
课时14 卷积神经网络详解(上) CNN处理的是一些数据块,在这之间有很多层,一系列的层将输入数据变换为输出数据,所以完成操作的中间量不仅是NN时候讲的那些向量,而是立体结构,有宽,高和深度,在整个计 ...
随机推荐
- ubuntu compile php from source code
10down vote Assuming that you already have the OpenSSL libraries and header files (on rpm systems th ...
- elasticsearch学习网站
elasticsearch学习网站 https://elasticsearch.cn/
- background-color
CreateTime--2017年11月13日09:03:00 Author:Marydon background-color 1.定义 设置背景颜色 2.语法 2.1 使用16进制,以" ...
- app具体介绍界面-01
在我们的上一篇博客中,我们介绍了首页中的app列表界面怎样完毕.这个ListView以及其Adapter会在我们后面的界面中重用,所以这个是比較重要的,在这一篇博客中,我们先完毕app具体介绍界面的一 ...
- 2014牡丹江 现场赛 F zoj 3824 Fiber-optic Network
首先赞一下题目, 好题 题意: Marjar University has decided to upgrade the infrastructure of school intranet by us ...
- HashMap变成线程安全方法
我们都知道.HashMap是非线程安全的(非同步的).那么怎么才能让HashMap变成线程安全的呢? 我认为主要可以通过以下三种方法来实现: 1.替换成Hashtable,Hashtable通过对整个 ...
- Intel processor brand names-Xeon,Core,Pentium,Celeron----Pentium
http://en.wikipedia.org/wiki/Pentium Pentium From Wikipedia, the free encyclopedia This article ...
- Python演绎的精彩故事(二)
书接上回.在展示了App最顶层的代码后,我们去看看各模块怎样编程. 为了能看懂各模块的代码,首先须要铺垫一下Softchip架构的基本概念和设计规范. 1.随意模块不持有其它模块的实例.自然不再显式使 ...
- csu1116 Kingdoms 最小生成树-枚举状态
题目链接: csu 1116 题意: 有一幅双向图连接N个城市(标号1~n,1表示首都) 每一个城市有一个价值W. 地震摧毁了全部道路,现给出可修复的m条道路并给出修复每条道路所需的费用 问在总费用 ...
- iOS之UI--涂鸦画板实例
iOS之UI--涂鸦画板实例 首先是搭建框架 其他的略过,直接展示效果: 然后接下来上传搭建好两个控制器框架的源码百度云下载链接: http://pan.baidu.com/s/1skjpDox ...