深度学习之TensorFlow构建神经网络层

基本法

深度神经网络是一个多层次的网络模型,包含了:输入层,隐藏层和输出层,其中隐藏层是最重要也是深度最多的,通过TensorFlow,python代码可以构建神经网络层函数,比如我们称之为add_layer()函数,由于神经网络层的工作原理是一层的神经元处理完成后得到一个结果,然后传递给下一个神经元,这就类似于函数的return与参数变量,所以最终代码的模型应该如下图所示:

通过add_layer的层层嵌套,实现上一个add_layer的结果返回给下一个add_layer作为参数变量。

激励函数

在深度神经网络中,激励函数的概念非常重要,TensorFlow已经包含了许多的激励函数。

什么是激励函数呢?

在神经网络中,隐层和输出层节点的输入和输出之间具有函数关系,这个函数称为激励函数。常见的激励函数有:线性激励函数、阈值或阶跃激励函数、S形激励函数、双曲正切激励函数和高斯激励函数等。(百度百科)

简而言之:隐藏层在处理后得到一个值,这个值要么直接传递给下一层,要么先处理一下再传递下一层,这个处理的过程就是激励函数。从数学角度说,激励就是上一层输出和下一层输入存在一种映射关系,即:

F (上一层结果->下一层输入)

为何需要激励函数?

想起上一回中介绍了使用TensorFlow求一次函数的系数与偏量的方法,那并没有用到激励函数,是因为输入与输出的数据呈现为线性关系,也就是y=kx+b这样的简单关系,但实际的问题中输入数据与输出数据可能会存在某种非线性关系。

如图要区分蓝红点,可以使用线性函数y>kx+b或者kx+b>y让神经网络快速学会分类

如图再要区分蓝红点,使用线性函数是做不到的,当然可以选择直接使用非线性函数来处理,在TensorFlow中亦可给出非线性计算的训练单元,但是另一种更为取巧的办法就是给线性函数嵌套一个非线性函数,使得原来的线性关系变成非线性关系,这就使得隐藏层处理的关注点放在了权重k与偏量b上,这就是激励函数的作用!他把本来复杂的问题简化为只调整两个简单的参数上来。

为什么需要分层,深度对学习能力有什么影响?

首先既然说到深度学习,隐藏层应该是多层才算“深”,分层就是为了提高学习能力嘛!那么分层如何做到了学习能力提升?

假定如下场景,我们有三层隐藏层,每个层都有一个神经元,我们对神经元在进行简化,就说他是一个函数y=kx+b,我们得出下图:

图中每一层都会产生出一个不同的f(x)=kx+b函数,而且不同层的函数的系数和偏量都是不一样的,通过神经元连接将这些f(x)串联起来,这有点像PHP里的链式操作,而且图中只是简单的线性关系(正如前面所述这些y函数外层还可以嵌套一个激励函数做非线性化转换)。

神经网络存在一个“逆向工程”,就是当最终输出神经元发现与真实值有差距时就会反向传递,通过调整每一层里的函数来纠正,调整的就是系数k和偏量b,调整出来的k,b在不同层中也是不一样的,具体如何调整这就是个黑盒,人类无法掌控,但他最后就是会到达一个合适的值,这个专业名词叫做:拟合!

综上所述:层数越多,k,b可能性越多,函数越多,那么所能代表的可能性越多,从数学上说,无穷多的可能性可以表达宇宙一切信息。

Show me the code!

Talking is cheap, show me the code!

以下我们给出一个实际的案例,实现上述所述的神经网络设计和构建过程:

import tensorflow as tf
import numpy as np #the function to create layer
def add_layer(inputs,in_size,out_size,activation_function=None):
w = tf.Variable(tf.random_normal([in_size,out_size]))
b = tf.Variable(tf.zeros([1,out_size])+0.1)
f = tf.matmul(inputs,w) + b
if activation_function is None:
outputs = f
else:
outputs = activation_function(f)
return outputs #create test data(as real data)
x_data = np.linspace(-1,1,300,dtype=np.float32)[:,np.newaxis]
noise = np.random.normal(0,0.05,x_data.shape)
y_data = np.square(x_data)-0.5+noise #give tensorflow input placeholder
xs = tf.placeholder(tf.float32,[None,1])
ys = tf.placeholder(tf.float32,[None,1])
l1 = add_layer(x_data,1,10,activation_function=tf.nn.relu)
prediction = add_layer(l1,10,1,activation_function=None) loss = tf.reduce_mean(tf.reduce_sum(tf.square(y_data-prediction),reduction_indices=[1])) train = tf.train.GradientDescentOptimizer(0.1).minimize(loss) init = tf.global_variables_initializer()
sess = tf.Session()
sess.run(init) for i in range(1000):
sess.run(train,feed_dict={xs:x_data,ys:y_data})
if(i % 50 == 0):
print sess.run(loss,feed_dict={xs:x_data,ys:y_data})

额,不要在意代码中我垃圾的英语注释。

我们简单分析一下代码的含义,其实如果读懂了代码前所述的理论概念,代码就能一下理解了。

首先,我们开头定义了一个create_layer函数,这个函数作用是创建一个神经网络层!参数变量是:输入值,输入值的矩阵行数,矩阵列数,激励函数。这里为什么是矩阵?因为实际处理的现实问题所携带的数据是多个维度的,人类一般能理解到三维,三维以上计算机可以理解。不用过于在意这个细节,以后结合实际问题解释为什么是矩阵的y=kx+b运算,现在要记住x是个多维矩阵就好了,不是简单的数。

create_layer内部做了什么?

函数内部首先是使用numpy给出了随机数,这个随机数也是个矩阵,代表了系数k与偏量b,tf.Varible()让TensorFlow学习过程中改变这两个变量(叫做权重,偏量调整),然后tf.matmul进行了矩阵的运算,给出这一层的输出值,if—else语句负责判断是否要给输出值套上一个激励函数,将其非线性化。

placeholder干什么的?

由于神经网络的学习要求我们输入测试的数据,placeholder的作用是提供输入数据的空位,实际问题产生的原始数据丢入到placeholder中,然后被一个叫feed_dict的对象收集到TensorFlow当中,再交给神经网络去处理得到一个预测结果。placeholder就是是原始数据的入口。

loss是什么?

损失值,用于优化训练过程,很简单,我们要让学习结果和真实结果接近,就要求他们之间的差越来越小,这个值就代表了他们的“差”,这个差可不是数学上的减减就行的,可以看到我们用到了:

tf.reduce_sum(tf.square(y_data-prediction),reduction_indices=[1])

这么长的计算方式,实际值和真实值的差的平方,然后还累加了矩阵中的差平方值,很复杂呢。反正这个值越小越好就对了。

控制台输出结果

运行以上python代码,得到的是损失值,这是为了验证TensorFlow在学习过程中是不是真的在优化自己,loss越来越小就是优化了:

确认:损失值减小,学习优化了!

题外话

个人觉得现在的深度学习的人工智能和传统的人工智能对比,就好像物理上的“量子力学”与“相对论”,怎么说?传统的人工智能认为机器学习过程是正向的,人类为机器设定好规则,在代码中呈现为if then if then......的特点,而深度学习是只给出输入值,让机器去“推理”出一个结果,与正确结果对比,错了就逆向去重新修改“推理”的逻辑,这就是一个无穷多可能的事情,这有点像“量子力学”中只有当观察量子世界中某一个现象时,才能得到一个确定的状态(结果),不观察时,这个魔盒中的可能性是无穷多的,答案落在任何一块区域中,怎么样,是不是很神奇?再通俗比喻一下,这就像武功的最高境界“无招胜有招”!只要能赢就是厉害!通过不断的输,修改招式,最后取得胜利,成为大师的时候固定招式已经不复存在了。

深度学习之TensorFlow构建神经网络层的更多相关文章

  1. TF之NN:matplotlib动态演示深度学习之tensorflow将神经网络系统自动学习并优化修正并且将输出结果可视化—Jason niu

    import tensorflow as tf import numpy as np import matplotlib.pyplot as plt def add_layer(inputs, in_ ...

  2. 深度学习之TensorFlow安装与初体验

    深度学习之TensorFlow安装与初体验 学习前 搞懂一些关系和概念 首先,搞清楚一个关系:深度学习的前身是人工神经网络,深度学习只是人工智能的一种,深层次的神经网络结构就是深度学习的模型,浅层次的 ...

  3. 深度学习与TensorFlow

    深度学习与TensorFlow DNN(深度神经网络算法)现在是AI社区的流行词.最近,DNN 在许多数据科学竞赛/Kaggle 竞赛中获得了多次冠军. 自从 1962 年 Rosenblat 提出感 ...

  4. 深度学习调用TensorFlow、PyTorch等框架

    深度学习调用TensorFlow.PyTorch等框架 一.开发目标目标 提供统一接口的库,它可以从C++和Python中的多个框架中运行深度学习模型.欧米诺使研究人员能够在自己选择的框架内轻松建立模 ...

  5. 【原创 深度学习与TensorFlow 动手实践系列 - 4】第四课:卷积神经网络 - 高级篇

    [原创 深度学习与TensorFlow 动手实践系列 - 4]第四课:卷积神经网络 - 高级篇 提纲: 1. AlexNet:现代神经网络起源 2. VGG:AlexNet增强版 3. GoogleN ...

  6. 【原创 深度学习与TensorFlow 动手实践系列 - 3】第三课:卷积神经网络 - 基础篇

    [原创 深度学习与TensorFlow 动手实践系列 - 3]第三课:卷积神经网络 - 基础篇 提纲: 1. 链式反向梯度传到 2. 卷积神经网络 - 卷积层 3. 卷积神经网络 - 功能层 4. 实 ...

  7. 分享《机器学习实战基于Scikit-Learn和TensorFlow》中英文PDF源代码+《深度学习之TensorFlow入门原理与进阶实战》PDF+源代码

    下载:https://pan.baidu.com/s/1qKaDd9PSUUGbBQNB3tkDzw <机器学习实战:基于Scikit-Learn和TensorFlow>高清中文版PDF+ ...

  8. 截图:【炼数成金】深度学习框架Tensorflow学习与应用

    创建图.启动图 Shift+Tab Tab 变量介绍: F etch Feed 简单的模型构造 :线性回归 MNIST数据集 Softmax函数 非线性回归神经网络   MINIST数据集分类器简单版 ...

  9. 深度学习(TensorFlow)环境搭建:(三)Ubuntu16.04+CUDA8.0+cuDNN7+Anaconda4.4+Python3.6+TensorFlow1.3

    紧接着上一篇的文章<深度学习(TensorFlow)环境搭建:(二)Ubuntu16.04+1080Ti显卡驱动>,这篇文章,主要讲解如何安装CUDA+CUDNN,不过前提是我们是已经把N ...

随机推荐

  1. NLP+语义分析(四)︱中文语义分析研究现状(CIPS2016、角色标注、篇章分析)

    摘录自:CIPS2016 中文信息处理报告<第二章 语义分析研究进展. 现状及趋势>P14 CIPS2016> 中文信息处理报告下载链接:http://cips-upload.bj. ...

  2. 一句python,一句R︱模块导入与查看、数据读写出入、数据查看函数、数据类型、遍历文件

    先学了R,最近刚刚上手python,所以想着将python和R结合起来互相对比来更好理解python.最好就是一句python,对应写一句R. pandas中有类似R中的read.table的功能,而 ...

  3. 制作U盘启动CDLinux

    用U盘启动CDLinux的好处就此不必多说了,直接上料: 下载必需文件: 1,CDLinuxU盘启动制作工具:CDLinuxU盘启动制作工具 2,CDlinux 0.9.7 集_奶瓶_打气筒_mini ...

  4. $_FILES数组为空的原因

    今天做上传的文件时候,打印$_files总是为空,查阅了下资料. 发现是 max_file_uploads=0 知道了原因 file_uploads = On upload_max_filesize ...

  5. freemarker写select组件(一)

    freemarker写select组件 1.宏定义 <#macro select id datas> <select id="${id}" name=" ...

  6. org.hibernate.engine.jndi.JndiException:Error parsing JNDI name[foo]

    1.错误描述 WARN:HHH00027:Could not bind factory to JNDI org.hibernate.engine.jndi.JndiException:Error pa ...

  7. Java代码输出是“father”还是“child”(二)

    1.实例 /** * 以下代码输出的结果是 */ package com.you.model; /** * @author YouHaidong * 输出的结果 */ public class Fat ...

  8. ASP.NET 页面双向静态化

    而我们预期的结果应该如下图,实际只请求两次. 用301重定向可以解决该循环请求产生的问题. OK, let's begin. 本文的Demo和Source是基于上一篇的,如果下面的一些文件或文件夹没有 ...

  9. 关于这个该死的报错:TypeError - 'undefined' is not a function (evaluating '_getTagName(currWindow).toLowerCase()')

    在利用Selenium爬取页面信息的时候突然报错,第一条信息爬取的时候还好好的,第二条就不行了. 请参考网上的爬取代码: # coding=utf-8"""Created ...

  10. C# SerialPort自定义串口DCB

    C# SerialPort自定义串口DCBChange DCB fields from SerialPort instance CPS:中文DCB结构详解表 译自Change DCB fields f ...