神经网络NN笔记
参考:http://www.cnblogs.com/subconscious/p/5058741.html
俗话说,好记性不如烂笔头~~~~
边学边记,方便以后查找~~~~~
一、介绍一下经典的神经网络

这个是人脑的神经网络,是不是很复杂啊~~~~~~科普成人的大脑里有1000亿的神经元(但怎么感觉大脑不够用啊~~~~可怕)

我来盗一波图~~~哈哈
上图2是经典的神经网络图,其中包括输入层3个,隐藏层4个,输出层2个。在设计一个神经网络的时候,输入层和输出层的节点数往往是固定不变的,中间的隐藏层则是自由指定的。这个结构图中的拓扑与箭头代表预测过程时数据的流向,但是这个和训练时还是有一定的区别的~~~~
重要的来了。。图2的一个圆圈代表一个神经元,连接线代表神经元之间的连接,每个连接线对应一个不同的权重,权重的值叫做权值,需要通过训练获得的。
二、神经元

盗图的感觉真棒啊~~~~~
一个神经元的模型,包含输入,输出与计算功能的模型,上图就是3个输入,2个计算功能,1个输出,这些线每个都有一个权值。
(我有一个大胆的想法,可不可以把神经网络缩小化,变成一个神经元~~~两者真的很像)

由上图知,z是在输入和权值的线性加权和套了一个函数g的值。
神经元模型的使用时,可以这样理解:假设一个数据data,称之为样本。样本有4个属性,其中三个属性为已知a1,a2,a3,,一个属性为未知,z。我们需要做的是通过三个已知属性预测未知属性,z
z可以通过公式计算出来。


w权值的之间关系用矩阵表示

如图,两层的神经网络结构,
三、RNN / CNN/DNN
1.DNN神经网络有深度~~~~
2.CNN卷积神经网络
有时候参数数量的膨胀,容易过拟合,极易陷入局部最优。需要用‘卷积核’作为中介。同一个卷积核在所有图像内是共享的,图像通过卷积操作后仍然保留原先的位置关系。
3.RNN循环神经网络
因为全连接的DNN有一个问题---------无法对时间序列上的变化进行建模。
然而,样本出现时间顺序对于自然语言处理、语音识别等应用非常重要。
对了适应这种需求,RNN循环神经网络。
在RNN中,神经元的输出可以在下一个时间戳直接作用到自身(第i层神经元在m时刻的输入,除了(i-1)层神经元在该时刻的输出外,还包括其自身在(m-1)时刻的输出)
RNN可以看成一个在时间上传递的神经网络,深度是时间的长度~~~
然而梯度消失现象还是要出现,且发生在时间轴上。对于t时刻来说,它产生的梯度在时间轴上向历史传播层之后就消失了,所以无法影响太遥远的过去。
神经网络NN笔记的更多相关文章
- tensorflow中使用mnist数据集训练全连接神经网络-学习笔记
tensorflow中使用mnist数据集训练全连接神经网络 ——学习曹健老师“人工智能实践:tensorflow笔记”的学习笔记, 感谢曹老师 前期准备:mnist数据集下载,并存入data目录: ...
- Python机器学习笔记:卷积神经网络最终笔记
这已经是我的第四篇博客学习卷积神经网络了.之前的文章分别是: 1,Keras深度学习之卷积神经网络(CNN),这是开始学习Keras,了解到CNN,其实不懂的还是有点多,当然第一次笔记主要是给自己心中 ...
- 人工神经网络NN
[面向代码]学习 Deep Learning系列 http://blog.csdn.net/coolluyu/article/details/20214617 正则化的最小二乘法 深入浅出LSTM神经 ...
- 【cs231n】神经网络学习笔记3
+ mu) * v # 位置更新变了形式 对于NAG(Nesterov's Accelerated Momentum)的来源和数学公式推导,我们推荐以下的拓展阅读: Yoshua Bengio的Adv ...
- 【cs231n】神经网络学习笔记1
神经网络推荐博客: 深度学习概述 神经网络基础之逻辑回归 神经网络基础之Python与向量化 浅层神经网络 深层神经网络 前言 首先声明,以下内容绝大部分转自知乎智能单元,他们将官方学习笔记进行了很专 ...
- Python神经网络编程笔记
神经元 想一想便知道,当一个人捏你一下以至于你会痛得叫起来的力度便是神经元的阈值,而我们构建的时候也是把这种现象抽象成一个函数,叫作激活函数. 而这里便是我们使用sigmoid函数的原因,它是一个很简 ...
- 卷积神经网络学习笔记——Siamese networks(孪生神经网络)
完整代码及其数据,请移步小编的GitHub地址 传送门:请点击我 如果点击有误:https://github.com/LeBron-Jian/DeepLearningNote 在整理这些知识点之前,我 ...
- 卷积神经网络学习笔记——SENet
完整代码及其数据,请移步小编的GitHub地址 传送门:请点击我 如果点击有误:https://github.com/LeBron-Jian/DeepLearningNote 这里结合网络的资料和SE ...
- BP神经网络学习笔记_附源代码
BP神经网络基本原理: 误差逆传播(back propagation, BP)算法是一种计算单个权值变化引起网络性能变化的较为简单的方法.由于BP算法过程包含从输出节点开始,反向地向第一隐含层(即最接 ...
随机推荐
- (二)SVN的安装
1,首先下载SVN的服务端和客户端地址如下http://subversion.apache.org/packages.html.进入网址后滚动到浏览器最底部. (因为我的系统是Windows所以我选择 ...
- Upgrading an ASP.NET MVC 2 Project to ASP.NET MVC 3 Tools Update
ASP.NET MVC 3 can be installed side by side with ASP.NET MVC 2 on the same computer, which gives you ...
- 类的特殊成员&反射&异常处理
类的特殊成员 1.__doc__表示类的描述信息 class Foo(object): """ 描述类信息,这是用于看片的神奇 """ de ...
- vsftpd 安装
vsftpd 安装 这里有最简洁的安装步骤 理想流程 [root@itdragon ~]# useradd ftpuser [root@itdragon ~]# passwd ftpuser Chan ...
- [最短路]P1339 [USACO09OCT]热浪Heat Wave
题目描述 The good folks in Texas are having a heatwave this summer. Their Texas Longhorn cows make for g ...
- Kafka设计解析(八)- Exactly Once语义与事务机制原理
原创文章,首发自作者个人博客,转载请务必将下面这段话置于文章开头处. 本文转发自技术世界,原文链接 http://www.jasongj.com/kafka/transaction/ 写在前面的话 本 ...
- JavaScript提高篇之预解释作用域以及this原理及其应用
1.预解释 <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF ...
- Dubbo源码学习--服务发布(ServiceBean、ServiceConfig)
前面讲过Dubbo SPI拓展机制,通过ExtensionLoader实现可插拔加载拓展,本节将接着分析Dubbo的服务发布过程. 以源码中dubbo-demo模块作为切入口一步步走进Dubbo源码. ...
- java.util.HashMap和java.util.HashTable (JDK1.8)
一.java.util.HashMap 1.1 java.util.HashMap 综述 java.util.HashMap继承结构如下图 HashMap是非线程安全的,key和value都支持nul ...
- ML笔记:Gradient Descent
Review: Gradient Descent Tip 1: Tuning your learning rates eta恰好,可以走到局部最小值点; eta太小,走得太慢,也可以走到局部最小值点; ...