week_5
Andrew Ng机器学习笔记---by Orangestar
Week_5
重点:反向传播算法,backpropagation
1. Cost Function神经元的代价函数
回顾定义:(上节回顾)
L是☞层数
\(s_l\)指第l层的节点数,注意,该节点数不包含bais偏置项
K则是输出项的个数。也就是分类的个数

图解回顾:二元分类,多元分类

接下来定义神经元的代价函数:
回顾:
逻辑回归中,代价函数(正则化):

对于神经网络:

解释:
这其实是一般逻辑回归的代价函数的一般形式。
前面这一大坨,计算的是每一个连线的代价函数,想想那个神经元。所以有2个求和符号。
后一坨,是对于所有的i,j来求和。当然,是每一层。所以有3个求和符号。
原汁原味的解释:

笔记:
- the double sum simply adds up the logistic regression costs calculated for each cell in the output layer.
- the triple sum simply adds up the squares of all the individual \(\Theta\)s in the entire network
- the i in the triple sum does NOT refer to training example!!!
2. ※ Backprpagation Algorithm 反向传播算法
回顾上节,我们需要计算一个非常复杂的式子,并要对这个式子求最小值:

在本节我们重点讨论如何计算这个偏导项
首先,回顾前向传播算法:

下面,为了计算偏导项,我们需要使用反向传播算法
首先引入一个eroror:

用来计算真实值和假设函数值的差值
\(\delta^{(i)}_j = a^{(i)}_j-y_j\)
这个$ a^{(i)}_j$ 就是\((h_\theta^{(x)})_j\)
注意,这时候,算的是输出层(即最后一层)
毕竟是反向传播算法嘛
当然,可以写成向量形式
\(\delta^{(4)}=a^{(4)}-Y\)
下一步,就要算前面几层的误差了
如图所示:

记住g的函数表达式,利用微积分知识很容易证明
当然,要注意的是,这里没有第一层,因为第一层是引入层,输入层,所以不可能有误差
经过十分复杂的证明:
我们可以证明出:
\(\frac\part{\part\theta}J(\theta) = a^{(l)}_j \delta^{(l+1)}_i\) 这里,我们忽略了标准项
那么,如何实现?(很大的训练样本)
基本思路是,先算出所有假设函数,在用训练样本中的值来计算error

跳出循环体后,可以计算:

然后,就可以计算出偏导项

例题:
好难理解啊啊啊啊啊啊
再来理一遍!!!:
Back propagation Algorithm


解释:Where L is our total number of layers and $a^{(L)} $is the vector of outputs of the activation units for the last layer. So our "error values" for the last layer are simply the differences of our actual results in the last layer and the correct outputs in y. To get the delta values of the layers before the last layer, we can use an equation that steps us back from right to left:
然后:

解释:The delta values of layer l are calculated by multiplying the delta values in the next layer with the theta matrix of layer l. We then element-wise multiply that with a function called g', or g-prime, which is the derivative of the activation function g evaluated with the input values given by \(z^{(l)}\).
最后

好的,我知道我理解不了.......
我来偷一下懒:
https://zhuanlan.zhihu.com/p/25081671
https://zhuanlan.zhihu.com/p/25416673
这两篇文章讲的挺好的
3. 反向传播算法--直观感受
我们先来观察一下,前向传播算法是如何实现的:

很容易理解。
接下来看看,后向传播算法到底在干嘛?

仔细观察,\delta是如何得到的
前面的误差\delta,由后面的误差来得到
4. 细节实现过程
主要讲如何实现数据向量化
好吧,我没学octave。放过我

例子:

我不会。放过我。
我就截图爽了,混课时长度


5. Gradient Checking
减少算法误差,减少模型错误,bug等

双边导数比单边导数的精度更高
下面看看向量如何来估计?

下面又用octave了。饶了我!

最后,只要确认:

注意:

检测完反向传播算法没问题后,一定要关掉梯度检验!
总结:
本节挺简单的,就是讲了下如何验证反向传播算法的正确性来估计!
6. Random Initialization
随机初始化,我们需要设置随机初始化。很多高级算法都需要

这节学的不是很好》》》》
octave害人
7.Put it Together



注明:博客写来完全是给我自己看的!自我满足。
而且,这周学的非常不好,好多知识感觉知识一带而过,
没有真正的理解,有可能是数学知识不够的原因,当然
也可能是最近有些浮躁,为了做笔记而做笔记,急于求成,之类的
希望我自己下次能改进,日后待知识足够,一定要把这周的知识理顺
共勉!
week_5的更多相关文章
- 【Duke-Image】Week_5 Segmentation
Chapter 10 Image Segmentation 图像分割 10.2.7 Edge Linking and Boundary Detection 边缘连接和边界检测 Global proce ...
随机推荐
- PTA 520钻石争霸赛 2021
7-1 自动编程 签到题 #include<bits/stdc++.h> typedef long long ll; const int maxm = 1e5 + 5; const int ...
- P1600 [NOIP2016 提高组] 天天爱跑步 (树上差分)
对于一条路径,s-t,位于该路径上的观察员能观察到运动员当且仅当以下两种情况成立:(d[ ]表示节点深度) 1.观察员x在s-lca(s,t)上时,满足d[s]=d[x]+w[x]就能观察到,所以我们 ...
- NOIP 2013 提高组 洛谷P1967 货车运输 (Kruskal重构树)
题目: A 国有 nn 座城市,编号从 11 到 nn,城市之间有 mm 条双向道路.每一条道路对车辆都有重量限制,简称限重. 现在有 qq 辆货车在运输货物, 司机们想知道每辆车在不超过车辆限重的情 ...
- C++函数模板和类模板的使用
一.函数模板 #include<iostream>using namespace std;template<class T1,class T2>T1 add(T1 x,T2 y ...
- IDEA清空控制台以及Java中运行cmd命令实现清屏操作
IDEA中清空控制台方法 在网上有看到各种的实现方法,比如: Runtime.getRuntime().exec("cls"); 或者: public static void cl ...
- 齐博x1前台后台地址跳转的处理
系统有三个入口,分别是 admin.php index.php member.php 所以就不能简单的使用TP默认的 url() 函数 而插件跟频道模块又有所不同,下面先讲解最基本的频道模块当中如何使 ...
- Codeforces Round #553 (Div. 2)/codeforces1151
CodeForces1151 Maxim and Biology 解析: 题目大意 每次可以使原串中的一个字符\(+1/-1\),\(Z + 1\to A, A -1\to Z\),求至少修改多少次可 ...
- JMETER与BeanShell
变量 Beanshell应用自定义变量有两种方法: #第一种方法,使用${key}格式,但是需要注意这是用应用的变量是没有定义数据类型的 #log.info(String Key)只能打印字符串,所以 ...
- .NET Conf 2022 – 11 月 8 日至 10 日
.NET Conf 2022 下周就正式开启了,时间是美国时间的 11月8日至10日..NET Conf 2022是一个免费的,为期三天的, 虚拟开发人员活动提供多种实时会话,其中包括来自社区和 .N ...
- easyclick 学习
什么是EC EasyClick 写自动化脚本,使用的编辑器 Idea 运行模式有两种:无障碍模式.代理模式 注释 三种类型: 1./** 对程序作介绍,解释说明用 / 2./* 多行注释 第二行 / ...