week_5
Andrew Ng机器学习笔记---by Orangestar
Week_5
重点:反向传播算法,backpropagation
1. Cost Function神经元的代价函数
回顾定义:(上节回顾)
L是☞层数
\(s_l\)指第l层的节点数,注意,该节点数不包含bais偏置项
K则是输出项的个数。也就是分类的个数

图解回顾:二元分类,多元分类

接下来定义神经元的代价函数:
回顾:
逻辑回归中,代价函数(正则化):

对于神经网络:

解释:
这其实是一般逻辑回归的代价函数的一般形式。
前面这一大坨,计算的是每一个连线的代价函数,想想那个神经元。所以有2个求和符号。
后一坨,是对于所有的i,j来求和。当然,是每一层。所以有3个求和符号。
原汁原味的解释:

笔记:
- the double sum simply adds up the logistic regression costs calculated for each cell in the output layer.
- the triple sum simply adds up the squares of all the individual \(\Theta\)s in the entire network
- the i in the triple sum does NOT refer to training example!!!
2. ※ Backprpagation Algorithm 反向传播算法
回顾上节,我们需要计算一个非常复杂的式子,并要对这个式子求最小值:

在本节我们重点讨论如何计算这个偏导项
首先,回顾前向传播算法:

下面,为了计算偏导项,我们需要使用反向传播算法
首先引入一个eroror:

用来计算真实值和假设函数值的差值
\(\delta^{(i)}_j = a^{(i)}_j-y_j\)
这个$ a^{(i)}_j$ 就是\((h_\theta^{(x)})_j\)
注意,这时候,算的是输出层(即最后一层)
毕竟是反向传播算法嘛
当然,可以写成向量形式
\(\delta^{(4)}=a^{(4)}-Y\)
下一步,就要算前面几层的误差了
如图所示:

记住g的函数表达式,利用微积分知识很容易证明
当然,要注意的是,这里没有第一层,因为第一层是引入层,输入层,所以不可能有误差
经过十分复杂的证明:
我们可以证明出:
\(\frac\part{\part\theta}J(\theta) = a^{(l)}_j \delta^{(l+1)}_i\) 这里,我们忽略了标准项
那么,如何实现?(很大的训练样本)
基本思路是,先算出所有假设函数,在用训练样本中的值来计算error

跳出循环体后,可以计算:

然后,就可以计算出偏导项

例题:
好难理解啊啊啊啊啊啊
再来理一遍!!!:
Back propagation Algorithm


解释:Where L is our total number of layers and $a^{(L)} $is the vector of outputs of the activation units for the last layer. So our "error values" for the last layer are simply the differences of our actual results in the last layer and the correct outputs in y. To get the delta values of the layers before the last layer, we can use an equation that steps us back from right to left:
然后:

解释:The delta values of layer l are calculated by multiplying the delta values in the next layer with the theta matrix of layer l. We then element-wise multiply that with a function called g', or g-prime, which is the derivative of the activation function g evaluated with the input values given by \(z^{(l)}\).
最后

好的,我知道我理解不了.......
我来偷一下懒:
https://zhuanlan.zhihu.com/p/25081671
https://zhuanlan.zhihu.com/p/25416673
这两篇文章讲的挺好的
3. 反向传播算法--直观感受
我们先来观察一下,前向传播算法是如何实现的:

很容易理解。
接下来看看,后向传播算法到底在干嘛?

仔细观察,\delta是如何得到的
前面的误差\delta,由后面的误差来得到
4. 细节实现过程
主要讲如何实现数据向量化
好吧,我没学octave。放过我

例子:

我不会。放过我。
我就截图爽了,混课时长度


5. Gradient Checking
减少算法误差,减少模型错误,bug等

双边导数比单边导数的精度更高
下面看看向量如何来估计?

下面又用octave了。饶了我!

最后,只要确认:

注意:

检测完反向传播算法没问题后,一定要关掉梯度检验!
总结:
本节挺简单的,就是讲了下如何验证反向传播算法的正确性来估计!
6. Random Initialization
随机初始化,我们需要设置随机初始化。很多高级算法都需要

这节学的不是很好》》》》
octave害人
7.Put it Together



注明:博客写来完全是给我自己看的!自我满足。
而且,这周学的非常不好,好多知识感觉知识一带而过,
没有真正的理解,有可能是数学知识不够的原因,当然
也可能是最近有些浮躁,为了做笔记而做笔记,急于求成,之类的
希望我自己下次能改进,日后待知识足够,一定要把这周的知识理顺
共勉!
week_5的更多相关文章
- 【Duke-Image】Week_5 Segmentation
Chapter 10 Image Segmentation 图像分割 10.2.7 Edge Linking and Boundary Detection 边缘连接和边界检测 Global proce ...
随机推荐
- python-函数-统计函数
#(1)amax(),amin() 作用:计算数组中的元素沿指定轴的最大值,最小值 import numpy as np x = np.random.randint(1,11,9).reshape(( ...
- 自学Spring
Spring官网地址https://spring.io/ springManven官网地址:https://mvnrepository.com------------------------ spri ...
- 关于private子网访问s3时报错:Connect timeout on endpoint URL
今天在使用private私有子网,通过aws s3命令访问s3时,报如下错误: [qq_5201351@private ~]$ aws s3 ls Connect timeout on endpoin ...
- web share api 分享
概述 Navigator.share() 方法通过调用本机的共享机制作为 Web Share API 的一部分.如果不支持 Web Share API,则此方法为 undefined. 此项功能仅在 ...
- 齐博x1标签实例:做模板组图单图无图混排的处理
代码如下, {qb:tag name="xxx" type="cms" rows="10"} {if ( count($rs['picurl ...
- 齐博x1动态改变标签调用不同频道的数据
标签默认需要设置标签参数 type 指定调用哪个频道的数据,比如下面的代码,需要默认指定商城的数据, {qb:tag name="qun_pcshow_shop001" type= ...
- Kubeadm部署Kubernetes
Kubeadm部署Kubernetes 1.环境准备 主机名 IP 说明 宿主机系统 k8s-master 10.0.0.101 Kubernetes集群的master节点 Ubuntu2004 k8 ...
- Multi-Channel PCIe QDMA Subsystem
可交付资料: 详细的用户手册 Design File:Post-synthesis EDIF netlist or RTL Source Timing and layout constraints,T ...
- JS逆向实战2--cookie-AcwScV2加密—某招标信息网
cookies的获取 首先拿到第一次访问原链接 拿到acw_tc的值,然后放到session中去 再用这个session再次访问原链接拿到js加载的加密的真实数据.用了一些反混淆. 最后获取这个数据中 ...
- CF620E New Year Tree(树形+dfs序+线段树+状态压缩)
题目链接 题目大意 \(~~\)给出一棵 nn 个节点的树,根节点为 11.每个节点上有一种颜色 c\(_{i}\) 和m 次操作.操作有两种: \(~~~~\) 1. 1\(~\)u\(~\)c:将 ...