目录 training Neural Network Activation function sigmoid ReLU Preprocessing Batch Normalization 权重初始化 Weight Initialization 交叉验证 Cross Validation 参数更新方法 Parameter Update SGD SGD+momentum Adagrad RMSprop Adam 改善过拟合 Overfiting 模型集成 Model ensemble 正则化 Reg…
线性分类器的基本模型: f = Wx Loss Function and Optimization 1. LossFunction 衡量在当前的模型(参数矩阵W)的效果好坏 Multiclass SVM Loss: Hinge Loss 样本 \(i\) 的损失:\(L_i = \sum_{j \neq y_i} \max(0, s_j-s_{y_i}+1)\), \(y_i\) 是样本 \(i\) 的正确标签. 损失取值范围是0~正无穷 当网络初始化的时候,参数随机初始化为比较小的值,输出 即…
目录 Introduction to Neural Networks BP Nerual Network Convolutional Neural Network Introduction to Neural Networks BP 梯度反向传播BackPropagation,是神经网络中的重要算法,主要思想是: 计算网络的输出与期望输出之间的误差 将误差从网络的输出层回传,沿着网络逐层传递,传递的是损失值相对当前层里参数的梯度 当每一层都接收到该层的参数梯度时,沿着梯度方向更新参数 用更新后的…
http://blog.csdn.net/dinosoft/article/details/51813615 前言 对于深度学习,新手我推荐先看UFLDL,不做assignment的话,一两个晚上就可以看完.毕竟卷积.池化啥的并不是什么特别玄的东西.课程简明扼要,一针见血,把最基础.最重要的点都点出来 了. cs231n这个是一个完整的课程,内容就多了点,虽然说课程是computer vision的,但80%还是深度学习的内容.图像的工作暂时用不上,我就先略过了. 突然发现这两个课程都是斯坦福的…
对于大型分布式Java应用与SOA,我们可以从以下几个方面来分析: 为什么需要SOA SOA是什么 eBay的SOA平台 可实现SOA的方法 为什么需要SOA   第一个现象是系统多元化带来的问题,可采用对共用逻辑的部分进行抽象的方法,形成多个按领域划分的公用业务逻辑系统:第二个现象是系统访问量.数据量上涨后带来的典型问题,可采用拆分系统的方式来解决.在构建了共用业务逻辑系统和拆分系统后,最明显的问题就是系统之间如何交互.为了整个系统的性能.可用性等考虑,统一的交互方式就成为明显的解决方案了,S…
神经网络是一种受大脑工作原理启发的模式. 它在许多应用中广泛使用:当您的手机解释并理解您的语音命令时,很可能是神经网络正在帮助理解您的语音; 当您兑现支票时,自动读取数字的机器也使用神经网络. Non-linear Classification 当输入数据特征过多,像上面的例子,当使用三次幂的特征时,可以超过170,000项,使我们的逻辑回归难以运行. 还有在计算机视觉中,图片的表示是通过像素矩阵表示的,如上图所示.那么假设一个图片是简单的50×50px,其特征数为2500(7500 if RG…
Exercise 3: Multivariate Linear Regression 预处理数据 Preprocessing the inputs will significantly increase gradient descent’s efficiency Matlab代码 x=load('L:\\MachineLearning2016\\ex3x.dat'); y=load('L:\\MachineLearning2016\\ex3y.dat'); m = length(x(:,1));…
一.全局变量(Linux中的全局变量指在整个系统中都能用的变量) 1.USER:当前登录系统的用户的用户名 2.HOME:当前用户的主目录 cd $HOME 或 cd ~可以进入用户主目录 3.PATH:环境变量(只要是PATH路径里面的可执行文件,只要打它的文件名就能执行) PATH=$PATH:想要加的路径(每个路径中间都由:隔开,windows是用:隔开) 二.简单命令 1.zip Cprogram.zip * :把当前文件夹打包成Cprogram.zip(*表示所有文件) ①zip wo…
译者注:本文翻译自斯坦福CS231n课程笔记ConvNet notes,由课程教师Andrej Karpathy授权进行翻译.本篇教程由杜客和猴子翻译完成,堃堃和李艺颖进行校对修改. 原文如下 内容列表: 结构概述 用来构建卷积神经网络的各种层 卷积层 汇聚层 归一化层 全连接层 将全连接层转化成卷积层 卷积神经网络的结构 层的排列规律 层的尺寸设置规律 案例学习(LeNet / AlexNet / ZFNet / GoogLeNet / VGGNet) 计算上的考量 拓展资源 卷积神经网络(C…
译者注:本文智能单元首发,译自斯坦福CS231n课程笔记Backprop Note,课程教师Andrej Karpathy授权翻译.本篇教程由杜客翻译完成,堃堃和巩子嘉进行校对修改.译文含公式和代码,建议PC端阅读. 原文如下: 内容列表: 简介 简单表达式和理解梯度 复合表达式,链式法则,反向传播 直观理解反向传播 模块:Sigmoid例子 反向传播实践:分段计算 回传流中的模式 用户向量化操作的梯度 小结 简介 目标:本节将帮助读者对反向传播形成直观而专业的理解.反向传播是利用链式法则递归计…