深度学习 (DeepLearning) 基础 [2]---神经网络常用的损失函数 Introduce 在上一篇"深度学习 (DeepLearning) 基础 [1]---监督学习和无监督学习"中我们介绍了监督学习和无监督学习相关概念.本文主要介绍神经网络常用的损失函数. 以下均为个人学习笔记,若有错误望指出. 神经网络常用的损失函数 pytorch损失函数封装在torch.nn中. 损失函数反映了模型预测输出与真实值的区别,模型训练的过程即让损失函数不断减小,最终得到可以拟合预测训练样…
深度学习 (DeepLearning) 基础 [3]---梯度下降法 Introduce 在上一篇"深度学习 (DeepLearning) 基础 [2]---神经网络常用的损失函数"中我们介绍了神经网络常用的损失函数.本文将继续学习深度学习的基础知识,主要涉及基于梯度下降的一类优化算法.首先介绍梯度下降法的主要思想,其次介绍批量梯度下降.随机梯度下降以及小批量梯度下降(mini-batch)的主要区别. 以下均为个人学习笔记,若有错误望指出. 梯度下降法 主要思想:沿着梯度反方向更新相…
深度学习 (DeepLearning) 基础 [4]---欠拟合.过拟合与正则化 Introduce 在上一篇"深度学习 (DeepLearning) 基础 [3]---梯度下降法"中我们介绍了梯度下降的主要思想以及优化算法.本文将继续学习深度学习的基础知识,主要涉及: 欠拟合和过拟合 正则化 以下均为个人学习笔记,若有错误望指出. 欠拟合和过拟合 要理解欠拟合和过拟合,我们需要先清楚一对概念,即偏差和方差. 偏差和方差是深度学习中非常有用的一对概念,尤其是可以帮助我们理解模型的欠拟合…
深度学习 (DeepLearning) 基础 [1]---监督学习与无监督学习 Introduce 学习了Pytorch基础之后,在利用Pytorch搭建各种神经网络模型解决问题之前,我们需要了解深度学习的一些基础知识.本文主要介绍监督学习和无监督学习. 以下均为个人学习笔记,若有错误望指出. 监督学习和无监督学习 常见的机器学习方法的类型如下: 监督学习:用已知标签的训练样本训练模型,用来预测未来输入样本的标签,如用于逻辑回归分类器. 无监督学习:不需要有已知标签的训练样本,而是直接对数据建模…
卷积神经网络(CNN)概述 Introduce 卷积神经网络(convolutional neural networks),简称CNN.卷积神经网络相比于人工神经网络而言更适合于图像识别.语音识别等任务.本文主要涉及卷积神经网络的概念介绍,首先介绍卷积神经网络相比于人工神经网络的优势,其次介绍卷积神经网络的基本结构,最后我们分别介绍神经网络的各个部件从而完整的了解CNN. 以下均为初学者笔记,若有错误请不吝指出. Advantages of Convolutional Neural Networ…
因为是Jupyter Notebook的形式,所以不方便在博客中展示,具体可在我的github上查看. 第一章 Neural Network & DeepLearning week2 Logistic Regression with a Neural Network mindset v3.ipynb 很多朋友反映找不到h5文件,我已经上传了,具体请戳h5文件 week3 Planar data classification with one hidden layer v3.ipynb week4…
126 篇殿堂级深度学习论文分类整理 从入门到应用 | 干货 雷锋网 作者: 三川 2017-03-02 18:40:00 查看源网址 阅读数:66 如果你有非常大的决心从事深度学习,又不想在这一行打酱油,那么研读大牛论文将是不可避免的一步.而作为新人,你的第一个问题或许是:“论文那么多,从哪一篇读起?” 本文将试图解决这个问题——文章标题本来是:“从入门到绝望,无止境的深度学习论文”.请诸位备好道具,开启头悬梁锥刺股的学霸姿势. 开个玩笑. 但对非科班出身的开发者而言,读论文的确可以成为一件很…
深度学习DeepLearning核心技术实战2020年01月03日-06日 北京一.深度学习基础和基本思想二.深度学习基本框架结构 1,Tensorflow2,Caffe3,PyTorch4,MXNet三,卷积神经网络CNN 循环神经网络RNN 强化学习DRL 对抗性生成网络GAN 迁移学习TL四.深度学习算法理论解析:五.深度学习实际应用案例操作:1,CNN——>图像分类 2,Lstm——>文本分类3,Lstm——>命名实体抽取 4,Yolo——>目标检测 5,图像分类(CNN)…
深度学习DeepLearning核心技术开发与应用时间地点:2019年11月01日-04日(北京) 联系人杨老师  电话(同微信)17777853361…
深度学习DeepLearning(Python)实战培训班 时间地点: 2020 年 12 月 18 日-2020 年 12 月 21日 (第一天报到 授课三天:提前环境部署 电脑测试) 一.培训方式:(即日起,开始报名!) 1.远程在线 (集中时间远程操作培训) 2.作业训练 (规定的时间把作业完成) 3.集中答疑 (统一时间进行疑难问题答疑) 二.主讲内容: 课程一: Tensorflow入门到熟练: 课程二:图像分类: 课程三:物体检测: 课程四:人脸识别: 课程五:算法实现: 1.卷积神…
12月线上课程报名中 深度学习DeepLearning(Python)实战培训班 时间地点: 2020 年 12 月 18 日-2020 年 12 月 21日 (第一天报到 授课三天:提前环境部署 电脑测试) 一.培训方式:(即日起,开始报名!) 1.远程在线 (集中时间远程操作培训) 2.作业训练 (规定的时间把作业完成) 3.集中答疑 (统一时间进行疑难问题答疑) 二.主讲内容: 课程一: Tensorflow入门到熟练: 课程二:图像分类: 课程三:物体检测: 课程四:人脸识别: 课程五:…
深度学习DeepLearning(Python)实战培训班 时间地点: 2020 年 12 月 18 日-2020 年 12 月 21日 (第一天报到 授课三天:提前环境部署 电脑测试) 一.培训方式:(即日起,开始报名!) 1.远程在线 (集中时间远程操作培训) 2.作业训练 (规定的时间把作业完成) 3.集中答疑 (统一时间进行疑难问题答疑) 二.主讲内容: 课程一: Tensorflow入门到熟练: 课程二:图像分类: 课程三:物体检测: 课程四:人脸识别: 课程五:算法实现: 1.卷积神…
Hinton“深度学习之父”和“神经网络先驱”,新论文Capsule将推翻自己积累了30年的学术成果时 在论文中,Capsule被Hinton大神定义为这样一组神经元:其活动向量所表示的是特定实体类型的实例化参数.他的实验表明,鉴别式训练的多层Capsule系统,在MNIST手写数据集上表现出目前最先进的性能,并且在识别高度重叠数字的效果要远好于CNN. 该论文无疑将是今年12月初NIPS大会的重头戏. 一个月前,在多伦多接受媒体采访时,Hinton大神断然宣称要放弃反向传播,让整个人工智能从头…
Python之路[第十六篇]:Django[基础篇]   Python的WEB框架有Django.Tornado.Flask 等多种,Django相较与其他WEB框架其优势为:大而全,框架本身集成了ORM.模型绑定.模板引擎.缓存.Session等诸多功能. 基本配置 一.创建django程序 终端命令:django-admin startproject sitename IDE创建Django程序时,本质上都是自动执行上述命令 其他常用命令: python manage.py runserve…
神经网络剖析   训练神经网络主要围绕以下四个方面: 层,多个层组合成网络(或模型) 输入数据和相应的目标 损失函数,即用于学习的反馈信号 优化器,决定学习过程如何进行   如图 3-1 所示:多个层链接在一起组成了网络,将输入数 据映射为预测值.然后损失函数将这些预测值与目标进行比较,得到损失值,用于衡量网络预 测值与预期结果的匹配程度.优化器使用这个损失值来更新网络的权重.  …
原文:http://developer.51cto.com/art/201501/464174.htm 编者按:本文收集了百来篇关于机器学习和深度学习的资料,含各种文档,视频,源码等.而且原文也会不定期的更新,望看到文章的朋友能够学到更多. <Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost 到随机森林.Deep Learning. <Deep Learning i…
编者按:本文收集了百来篇关于机器学习和深度学习的资料,含各种文档,视频,源码等.而且原文也会不定期的更新,望看到文章的朋友能够学到更多. <Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost 到随机森林.Deep Learning. <Deep Learning in Neural Networks: An Overview> 介绍:这是瑞士人工智能实验室 Ju…
Caffe是一个清晰而高效的深度学习框架,其作者是博士毕业于UC Berkeley的 贾扬清,目前在Google工作.本文是根据机器学习研究会组织的online分享的交流内容,简单的整理了一下. 目录 1.caffe分享 1.1.caffe起源 1·2.caffe介绍 1.3.caffe其他方向 2.讨论 2.1.caffe算法与结构 2.2.caffe工程与应用 2.3.模型训练与调参 2.4.caffe与DL的学习与方向 2.5.其他 3.附录 1.caffe分享 我用的ppt基本上和我们在…
深度学习网络课程QQ群群号: 1057802989(加群备注:杨春娇邀请) 强化学习QQ交流群群号: 872395038(加群备注:杨春娇邀请)…
上篇文章我们给出了用paddlepaddle来做手写数字识别的示例,并对网络结构进行到了调整,提高了识别的精度.有的同学表示不是很理解原理,为什么传统的机器学习算法,简单的神经网络(如多层感知机)都可以识别手写数字,我们要采用卷积神经网络CNN来进行别呢?CNN到底是怎么识别的?用CNN有哪些优势呢?我们下面就来简单分析一下.在讲CNN之前,为避免完全零基础的人看不懂后面的讲解,我们先简单回顾一下传统的神经网络的基本知识. 神经网络的预备知识      为什么要用神经网络? 特征提取的高效性.…
 =================第2周 神经网络基础=============== ===4.1  深层神经网络=== Although for any given problem it might be hard to predict in advance exactly how deep a neural network you would want,so it would be reasonable to try logistic regression,try one and then…
觉得有用的话,欢迎一起讨论相互学习~Follow Me 2.11向量化 向量化是消除代码中显示for循环语句的艺术,在训练大数据集时,深度学习算法才变得高效,所以代码运行的非常快十分重要.所以在深度学习领域中将大数据集进行向量化操作变得十分重要. 对于非向量化数据的计算,我们会使用循环去遍历整个数据集计算对应项的乘积.例如我们要计算一个数据样本,其中w和b都是一个n维向量,计算式子:\(Z=W^{T}+b\)那么我们的式子会写为: z=0 for i in range(n-x) z+=w[i]*…
深层神经网络可以解决部分浅层神经网络解决不了的问题. 神经网络的优化目标-----损失函数 深度学习:一类通过多层非线性变化对高复杂性数据建模算法的合集.(两个重要的特性:多层和非线性) 线性模型的最大特点:任意线性模型的组合仍然是线性模型.(任意层的全连接神经网络和单层神经网络模型的表达能力没有任何区别) 激活函数实现去线性化:ReLU函数  sigmoid函数  tanh函数 (增加偏置项) ,TensorFlow支持7中不同的非线性激活函数 感知机:单层的神经网络,无法模拟异或运算.加入隐…
讲授神经网络的思想起源.神经元原理.神经网络的结构和本质.正向传播算法.链式求导及反向传播算法.神经网络怎么用于实际问题等 课程大纲: 神经网络的思想起源 神经元的原理 神经网络结构 正向传播算法 怎么用于实际问题 反向传播算法概述 算法的历史 神经网络训练时的优化目标函数 几个重要的复合函数求导公式 算法的推导 算法的总结 工程实现问题 全连接神经网络:也叫多层感知器模型(HLP) BP不是神经网络,是训练神经网络的一种方法.像CNN.RNN是一种神经网络结构,而BP是一种训练神经网络的其中一…
标量(0D 张量) 仅包含一个数字的张量叫作标量(scalar,也叫标量张量.零维张量.0D 张量).在Numpy 中,一个float32 或float64 的数字就是一个标量张量(或标量数组).你可以用ndim 属性 来查看一个Numpy 张量的轴的个数.标量张量有0 个轴(ndim == 0).张量轴的个数也叫作 阶(rank).下面是一个Numpy 标量. >>> import numpy as np >>> x = np.array(12) >>&g…
 =================第1周 循环序列模型=============== ===1.1 欢迎来到深度学习工程师微专业=== 我希望可以培养成千上万的人使用人工智能,去解决真实世界的实际问题,创造一个人工智能驱动的社会. ===1.2 什么是神经网络=== 实际上隐藏节点可能并没有左图那样明确的定义,你让神经网络自己决定这个节点是什么,我们只给你四个输入特征 随便你怎么计算.注意,当我们计算层数的时候,不计算输出层. ===1.3 用神经网络进行监督学习=== And then, f…
介绍 DeepLearning课程总共五大章节,该系列笔记将按照课程安排进行记录. 另外第一章的前两周的课程在之前的Andrew Ng机器学习课程笔记(博客园)&Andrew Ng机器学习课程笔记(CSDN)系列笔记中都有提到,所以这里不再赘述. 1.神经网络概要 注意:这一系列的课程中用中括号表示层数,例如\(a^{[1]}\)表示第二层(隐藏层)的数据. 2.神经网络表示 这个图的内容有点多,跟着下面的步骤来理解这个图吧: 首先看蓝色字体,这个2层的神经网络(输入层一般理解成第0层)有输入层…
觉得有用的话,欢迎一起讨论相互学习~Follow Me 1.10 梯度消失和梯度爆炸 当训练神经网络,尤其是深度神经网络时,经常会出现的问题是梯度消失或者梯度爆炸,也就是说当你训练深度网络时,导数或坡度有时会变得非常大,或非常小,甚至以指数方式变小.这加大了训练的难度. 假设你正在训练一个很深的神经网络,并且将其权重命名为"W[1],W[2],W[3],W[4]......W[L]" 为了简化说明,我们选择激活函数为g(z)=z(线性激活函数),b[l]=0(即忽略偏置对神经网络的影响…
觉得有用的话,欢迎一起讨论相互学习~Follow Me 1.9 归一化Normaliation 训练神经网络,其中一个加速训练的方法就是归一化输入(normalize inputs). 假设我们有一个训练集,它有两个输入特征,所以输入特征x是二维的,这是数据集的散点图. 归一化输入需要两个步骤 第一步-零均值化 subtract out or to zero out the mean 计算出u即x(i)的均值 \[u=\frac{1}{m}\sum^{m}_{i=1}x^{(i)}\] u是一个…
这个月阅读了论文[Partial Adversarial Domain Adaptation-eccv18],文章着眼于源域标签空间包含目标域标签空间的场景,在域对抗神经网络的基础上提出了部分对抗域适应方法.思想很容易理解,即在源域样本空间中引入了权值,希望源域和目标域共有的标签权值大一些,不共有的权值尽可能小. 这是我阅读的第一篇正式应用卷积神经网络的文章,其中对抗的思想用神经网络来实现.实验部分使用的是残差网络框架,包含卷积.池化.激活.全连接.反向传播等知识点,需要我去逐一理解.论文代码使…