————————————————————————————————————

写在开头:此文参照莫烦python教程(墙裂推荐!!!)

————————————————————————————————————

TensorFlow之建造第一个神经网络

1 定义添加层

import tensorflow as tf

def add_layer(inputs,in_size,out_size,activation_function=None):
Weights = tf.Variable(tf.random_normal([in_size,out_size]))#用随机数来初始化Weights,这比全部为0要好,int_size行,out_size列
biases = tf.Variable(tf.zeros([1,out_size])+0.1) #1行,out_size列,均为0.1
Wx_plus_b = tf.matmul(inputs,Weights) + biases #预测出来但还没激活的值
if activation_function is None: #如果没有激活函数,则返回预测原值
outputs = Wx_plus_b
else:
outputs = activation_function(Wx_plus_b) #否则,返回预测值激活之后的值
return outputs

2 建立神经网络结构

import numpy as np
#生成数据
x_data = np.linspace(-1,1,300)[:,np.newaxis] #有300行,即一个特性,300个对象
noise = np.random.normal(0,0.05,x_data.shape) #加入噪音,用期望为0、方差为0.05的正态分布的随机数来建立
y_data = np.square(x_data)-0.5 + noise #将输入数据和输出数据定义为placeholder
xs = tf.placeholder(tf.float32,[None,1]) #1为属性数,None为随意数都行
ys = tf.placeholder(tf.float32,[None,1]) #第一层layer,即输入层,这里只有一个神经元
#第二层layer,即隐藏层,这里定义10个神经元
#第三层layer,这里为输出层,这里有一个神经元 #下面增加第二层,即这里的隐藏层
l1 = add_layer(xs,1,10,activation_function=tf.nn.relu) #下面定义输出层
prediction = add_layer(l1,10,1,activation_function=None) #计算损失
loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys -prediction),reduction_indices=[1]))#求和之后求平均 #训练
train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss) #学习效率为0.1,学习效率一般小于1 #初始所有变量
init = tf.global_variables_initializer() sess = tf.Session()
sess.run(init) for i in range(1000):
sess.run(train_step,feed_dict={xs:x_data,ys:y_data})
if i % 50 == 0:
print(sess.run(loss,feed_dict={xs:x_data,ys:y_data})) #打印误差,如果误差不断减小,则模型有不断学习
0.32276458
0.012201915
0.0066840313
0.0057683536
0.0053448635
0.0050948677
0.004914441
0.004781631
0.0046798103
0.0046042935
0.004543632
0.0044809543
0.0044029644
0.0042897784
0.004155126
0.004016761
0.0038873414
0.003766319
0.0036393174
0.0035409257

由上面结果可知,误差是越来越小的。这说明,这个网络是在不断学习的

3 结果可视化

#在上面的for之前加入一些绘图的代码,如下:
%matplotlib inline
import matplotlib.pyplot as plt #结果可视化所用 #加入绘图代码,先打印x_data和y_data
fig = plt.figure()
ax = fig.add_subplot(1,1,1)
ax.scatter(x_data,y_data)
plt.ion() #使show()后不会暂停程序
#plt.show() for i in range(1000):
#训练
sess.run(train_step,feed_dict={xs:x_data,ys:y_data})
if i % 50 == 0:
#print(sess.run(loss,feed_dict={xs:x_data,ys:y_data})) #打印误差,如果误差不断减小,则模型有不断学习
try:
ax.lines.remove(lines[0])
except Exception:
pass
prediction_value = sess.run(prediction,feed_dict={xs:x_data}) #计算预测值
lines = ax.plot(x_data,prediction_value,'r-',lw = 5) #绘制预测值的曲线,红色,线框为5
#ax.lines.remove(lines[0]) #抹除掉第一个线段
plt.pause(1) #暂停1秒

这里应该是有一条红色的线在不断拟合这些蓝点的。这里只显示了最后一条红色的线

4 加速神经网络

  • SGD:把数据分块,每次使用批量数据。虽然损失了一点精度,但速度大大加快了
  • Mmomentum:在更新W权值时加速。公式如下:

    m = b1*m - learning rate * dx;

    W += m
  • AdaGrad:在更新W权值时加速。公式如下:

    v += pow(dx,2)

    W += -Learning rate * dx /sqrt(v)
  • RMSProp:在更新W权值时加速。公式如下:

    v = b1*v + (1-b1)*pow(dx,2)

    W += -Learning rate * dx/sqrt(v)
  • Adam:在更新W权值时加速。公式如下:(又快又好)

    m = b1*m +(1-b1)*dx

    v = b2*v + (1-b2)*pow(dx,2)

    W += -Learning tate *m/sqrt(v)

5 Optimizer优化器

TensorFlow有很多优化器,可以去tensorflow的官网查询

#这里列出几种优化器:

tf.train.GradientDescentOptimizer  #初级常用
tf.train.AdadeltaOptimizer
tf.train.AdagradOptimizer
tf.train.MomentumOptimizer #常用
tf.train.AdamOptimizer #常用
tf.train.FtrlOptimizer
tf.train.RMSPropOptimizer #常用

6 网络可视化工具:tensorboard

利用Tensorboard,可以很好的画出我们的网络结构。下面以上面的例子为例,实践一下。

#把上面的代码copy下来先
import tensorflow as tf

def add_layer(inputs,in_size,out_size,activation_function=None):
with tf.name_scope('layer'): #加入名字
with tf.name_scope('weights'):
Weights = tf.Variable(tf.random_normal([in_size,out_size]))#用随机数来初始化Weights,这比全部为0要好,int_size行,out_size列
with tf.name_scope('biases'):
biases = tf.Variable(tf.zeros([1,out_size])+0.1) #1行,out_size列,均为0.1
with tf.name_scope('Wx_plus_b'):
Wx_plus_b = tf.matmul(inputs,Weights) + biases #预测出来但还没激活的值
if activation_function is None: #如果没有激活函数,则返回预测原值
outputs = Wx_plus_b
else:
outputs = activation_function(Wx_plus_b) #否则,返回预测值激活之后的值
return outputs
import numpy as np
x_data = np.linspace(-1,1,300)[:,np.newaxis]
noise = np.random.normal(0,0.05,x_data.shape)
y_data = np.square(x_data)-0.5 + noise with tf.name_scope('input'):
xs = tf.placeholder(tf.float32,[None,1],name='x_input') #加入名字name
ys = tf.placeholder(tf.float32,[None,1],name='y_input') #第一层layer,即输入层,这里只有一个神经元
#第二层layer,即隐藏层,这里定义10个神经元
#第三层layer,这里为输出层,这里有一个神经元 #下面增加第二层,即这里的隐藏层
l1 = add_layer(xs,1,10,activation_function=tf.nn.relu) #下面定义输出层
prediction = add_layer(l1,10,1,activation_function=None) #计算损失
with tf.name_scope('loss'):
loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys -prediction),reduction_indices=[1]),name='mean') #训练
with tf.name_scope('train'):
train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss) sess = tf.Session()
writer = tf.summary.FileWriter("desktop",sess.graph)
#初始所有变量
init = tf.global_variables_initializer()
sess.run(init)

这样桌面便出现了events.out。但我在win10下无法打开。


*点击[这儿:TensorFlow]发现更多关于TensorFlow的文章*


2 TensorFlow入门笔记之建造神经网络并将结果可视化的更多相关文章

  1. 1 TensorFlow入门笔记之基础架构

    ------------------------------------ 写在开头:此文参照莫烦python教程(墙裂推荐!!!) ---------------------------------- ...

  2. tensorflow+入门笔记︱基本张量tensor理解与tensorflow运行结构

    Gokula Krishnan Santhanam认为,大部分深度学习框架都包含以下五个核心组件: 张量(Tensor) 基于张量的各种操作 计算图(Computation Graph) 自动微分(A ...

  3. Tensorflow学习笔记03-使用神经网络做线性回归

    import tensorflow as tf import numpy as np #input就是输入数据,输入矩阵,in_size就是输入矩阵的列数(数据属性数量),out_size输出矩阵列数 ...

  4. 5 TensorFlow入门笔记之RNN实现手写数字识别

    ------------------------------------ 写在开头:此文参照莫烦python教程(墙裂推荐!!!) ---------------------------------- ...

  5. tensorflow学习笔记七----------卷积神经网络

    卷积神经网络比神经网络稍微复杂一些,因为其多了一个卷积层(convolutional layer)和池化层(pooling layer). 使用mnist数据集,n个数据,每个数据的像素为28*28* ...

  6. tensorflow入门笔记(五) name_scope和variable_scope

    一.上下文管理器(context manager) 上下文管理器是实现了上下文协议的对象,主要用于资源的获取与释放.上下文协议包括__enter__.__exit__,简单说就是,具备__enter_ ...

  7. tensorflow入门笔记(二) 滑动平均模型

    tensorflow提供的tf.train.ExponentialMovingAverage 类利用指数衰减维持变量的滑动平均. 当训练模型的时候,保持训练参数的滑动平均是非常有益的.评估时使用取平均 ...

  8. 【TensorFlow入门完全指南】神经网络篇·卷积神经网络

    加载数据集. 这里的keep_prob是dropout的一个参数.dropout是一种随机置零的策略,用来防止模型过拟合. 这里定义两层,上面是卷积层,下面是池化层. 搭建了一层卷积.一层池化.一层卷 ...

  9. tensorflow入门笔记(四) tf.summary 模块

    模块内的函数: tf.summary.audio(name, tensor, sample_rate, max_outputs=3, collections=None, family=None) 输出 ...

随机推荐

  1. ID4收藏

    IdentityServer4.Admin https://github.com/skoruba/IdentityServer4.Admin

  2. GEEK学习笔记— —程序猿面试宝典笔记(二)

    所谓笔记,就是比較个人的东西,把个人认为有点意思的东西记录下来~~ 程序猿面试宝典笔记(一)基本概念 程序猿面试宝典笔记(二)预处理.const和sizeof 程序猿面试宝典笔记(三)auto_ptr ...

  3. JVM Specification 9th Edition (2) Chapter 1. Introduction

    Chapter 1. Introduction 翻译太累了,我就这样的看英文吧. 内容列表 1.1. A Bit of History 1.2. The Java Virtual Machine 1. ...

  4. ubuntu12.10更新源

    ubuntu12.10更新源 2013-03-10 20:48:17|  分类: Linux |字号 订阅   不同的网络状况连接以下源的速度不同, 建议在添加前手动验证以下源的连接速度(ping下就 ...

  5. php 扩展模块添加

    1. 新增安装扩展模块的位置 [root@node_22 ~]# ls /usr/local/php7/lib/php/extensions/no-debug-non-zts-20151012/ op ...

  6. 使用JSP实现用户登录

    本文讲述使用JSP实现用户登录,包括用户登录.注册和退出功能等. 1.系统用例图 2.页面流程图 3.数据库设计 本例使用oracle数据库 创建用户表 包括id,username,password和 ...

  7. MySQL集群系列1:2台机器搭建双主集群

    先配置静态IP 2台机器mysql密码一样,最好在同一局域网内,最好在mysql刚安装时就配置好,后面有数据了不好同步. 本文实现了2台机器mysql数据同步成功: 配置my.cnf 先关闭防火墙 s ...

  8. JQ实现吸顶效果代码

    吸顶下过代码跟简单几行代码就可以了 如果滚动的军力大于100,就改变导航的定位方式,否则就默认 $(function(){         $(window).scroll(function(){   ...

  9. C++ 抽象类二(抽象类的基本语法)

    //抽象类的基本语法 #include<iostream> using namespace std; /* 有关多继承的说明 被实际开发经验抛弃的多继承 工程开发中真正意义上的多继承是几乎 ...

  10. Java 的数组

    几乎所有程序设计语言都支持数组.在C和 C++里使用数组是非常危险的,因为那些数组只是内存块.若程 序访问自己内存块以外的数组,或者在初始化之前使用内存(属于常规编程错误),会产生不可预测的后果 (注 ...