1. 深层神经网络(Deep L-layer neural network ) 2. 前向传播和反向传播(Forward and backward propagation) 3. 总结 4. 深层网络中的前向传播(Forward propagation in a Deep Network) 向量化实现过程可以写成: 注:这里只能用一个显示for循环,l 从 1 到 L,然后一层接着一层去计算. 如何减少bug 4.1 核对矩阵的维数(Getting your matrix dimensions…
3.1 神经网络概述(Neural Network Overview ) (神经网络中,我们要反复计算a和z,最终得到最后的loss function) 3.2 神经网络的表示(Neural Network Representation) 3.3 计算一个神经网络的输出(Computing a Neural Network's output ) 向量化计算: 详细过程见下: 公式 3.10: (W---4x3) 3.4 多样本向量化(Vectorizing across multiple exa…
总结 一.处理数据 1.1 向量化(vectorization) (height, width, 3) ===> 展开shape为(heigh*width*3, m)的向量 1.2 特征归一化(Normalization) 一般数据,使用标准化(Standardlization), z(i) = (x(i) - mean) / delta,mean与delta代表X的均值和标准差,最终特征处于[-1,1]区间 对于图片,可直接使用 Min-Max Scaliing,即将每个特征直接除以 255,…
近期開始看一些深度学习的资料.想学习一下深度学习的基础知识.找到了一个比較好的tutorial,Neural Networks and Deep Learning,认真看完了之后觉得收获还是非常多的.从最主要的感知机開始讲起.到后来使用logistic函数作为激活函数的sigmoid neuron,和非常多其它如今深度学习中常使用的trick. 把深度学习的一个发展过程讲得非常清楚,并且还有非常多源代码和实验帮助理解.看完了整个tutorial后打算再又一次梳理一遍,来写点总结.以后再看其它资料…
第四周:深层神经网络(Deep Neural Networks) 4.1 深层神经网络(Deep L-layer neural network) 有一些函数,只有非常深的神经网络能学会,而更浅的模型则办不到. 对于给定的问题很难去提前预测到底需要多深的神经网络,所以先去尝试逻辑回归,尝试一层然后两层隐含层, 然后把隐含层的数量看做是另一个可以自由选择大小的超参数,然后再保留交叉验证数据上 评估,或者用开发集来评估. 一些符号注意: 用 L 表示层数,上图5hidden layers :…
Planar data classification with a hidden layer Welcome to the second programming exercise of the deep learning specialization. In this notebook you will generate red and blue points to form a flower. You will then fit a neural network to correctly cl…
Learn to build a neural network with one hidden layer, using forward propagation and backpropagation. 学习目标 Understand hidden units and hidden layers Be able to apply a variety of activation functions in a neural network. Build your first forward and…
1.以下哪一项是正确的?(检查所有适用的) (A,D,F,G) A.  a[2] 表示第二层的激活函数值向量. B. X 是一个矩阵, 其中每一行都是一个训练示例. C. a[2] (12) 表示第二训练样本在第十二层的激活函数值向量. D. X 是一个矩阵, 其中每一列都是一个训练样本. E. a4 [2] 是第二层的第4个训练样本的激活函数输出值 F. a[2] (12) 表示第十二训练样本在第二层激活函数值向量. G. a4[2]  是第二层第四个神经元的激活函数输出值 ---------…
如上图所示的两层神经网络, 单样本向量化:                                                                                 多样本向量化: for i=1 to 4: z[1](i) = W[1](i) x(i)  + b[1](i)                                       Z[1] = W[1] X+ b[1] (4,1)               (4,3)        (…
一:二分类(Binary Classification) 逻辑回归是一个用于二分类(binary classification)的算法.在二分类问题中,我们的目标就是习得一个分类器,它以对象的特征向量作为输入,然后预测输出结果…