微信公众号关注我,更多计算机知识告诉你!

 1 import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt #创建一个input数据,-1到1之间300个数,[:,np.newaxis]把x_data变成300维的
x_data=np.linspace(-1,1,300)[:,np.newaxis]
#添加噪点,把他变得更像真实数据
noise=np.random.normal(0,0.05,x_data.shape)
#创建一个input的数据
y_data=np.square(x_data)-0.5+noise

 #这里定义了一个添加神经层的方法
def add_layer(inputs,in_size,out_size,n_layer,activation_function=None):
#定义layer_name是为了在可视化中可以看到这个模块的名字,这里传入的
#n_layer代表我们现在正创建第几个神经层
layer_name='layer%s' % n_layer
#在这里是我们layer_name模块,可视化的时候我们可以看到结果
with tf.name_scope(layer_name):
with tf.name_scope('weights'):
#这里定义的weights模块中,tf.random_normal方法从正态分布中输出随机值
#输出形状为[in_size,out_size]的矩阵,令其为初始值,名字为W
Weights=tf.Variable(tf.random_normal([in_size,out_size]),name='W')
#在这里将这个模块命名为layer_name+weights
#并用tf.summary.histogram输入到日志文件中
tf.summary.histogram(layer_name+'/weights',Weights) with tf.name_scope('biases'):
#在这里另一个形状为[1,out_size]的矩阵为初始值
#矩阵的每一个元素均为初始值
biases=tf.Variable(tf.zeros([1,out_size])+0.1,name='b')
tf.summary.histogram(layer_name+'/biases',biases) with tf.name_scope('Wx_plus_b'):
#这里定义的模块为Wx_plus_b
#之后加上biases时是矩阵的每一行都去加biases这个数组
Wx_plus_b=tf.matmul(inputs,Weights)+biases
#在这里如果没有激活函数则直接输出
#若有激活函数则用激活函数,然后给模块命名
if activation_function is None:
outputs=Wx_plus_b
else:
outputs=activation_function(Wx_plus_b)
tf.summary.histogram(layer_name+'/outputs',outputs)
#sess=tf.Session()
return outputs
 with tf.name_scope('inputs'):
#这里用tf.placeholder定义一个参数,方便后续为其传值
xs=tf.placeholder(tf.float32,[None,1],name='x_input')
ys=tf.placeholder(tf.float32,[None,1],name='y_input')
 #这里第一层输入参数inputs=xs,Weights是一个1*10的矩阵
#激活函数为relu
l1=add_layer(xs,1,10,n_layer=1,activation_function=tf.nn.relu)
#这里第二层输入参数inputs=l1,Weights是一个1*10的矩阵
#激活函数为空
prediction=add_layer(l1,10,1,n_layer=2,activation_function=None)
 #这里定义了一个损失函数,
with tf.name_scope('loss'):
loss=tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction),reduction_indices=[1]))
tf.summary.scalar('loss',loss)
#神经网络优化器,这里使用了梯度下降法
#使用优化器去减少每一步的误差
with tf.name_scope('train'):
train_step=tf.train.GradientDescentOptimizer(0.1).minimize(loss)
 sess=tf.Session()
merged= tf.summary.merge_all()
#这里将神经网络结构输入到一个文件中
writer=tf.summary.FileWriter("logs/",sess.graph)
 sess=tf.Session()
merged= tf.summary.merge_all()
#这里将神经网络结构输入到一个文件中
writer=tf.summary.FileWriter("logs/",sess.graph) sess.run(tf.global_variables_initializer())
for i in range(1000):
#开始训练,设置迭代次数为1000次
#这里输入的x_data参数为一个300*1的矩阵
#先在l1网络层运算,将300*10的矩阵Wx_plus_b输入到激活函数Relu中,然后输出
#输出结果也为300*10的矩阵
#然后在输出层prediction
#输入为300*10的矩阵,Weights为10*1的矩阵
#相乘后为300*1的矩阵然后加上1*1的biases
#输出为300*91的矩阵
#然后与之前的y_data去做loss误差分析
#计算误差
sess.run(train_step,feed_dict={xs:x_data,ys:y_data})
if i % 50==0:
#每迭代50次输出带日志文件,将所有日志文件都merged合并起来
result=sess.run(merged,feed_dict={xs:x_data,ys:y_data})
writer.add_summary(result,i)

  博文中的图都是tensorflow自带的可视化部件tensorboard展示出来的。我们用

writer=tf.summary.FileWriter("logs/",sess.graph)

  这个语句将结构输出到文件中,打开命令行,敲上语句

  tensorboard --logdir=C:\Users\yuanninesuns\Desktop\python\logs

  将控制台输出的这个网址敲到浏览器上就能看到可视化内容。

神经网络一(用tensorflow搭建简单的神经网络并可视化)的更多相关文章

  1. [DL学习笔记]从人工神经网络到卷积神经网络_3_使用tensorflow搭建CNN来分类not_MNIST数据(有一些问题)

    3:用tensorflow搭个神经网络出来 为什么用tensorflow呢,应为谷歌是亲爹啊,虽然有些人说caffe更适合图像啊mxnet效率更高等等,但爸爸就是爸爸,Android都能那么火,一个道 ...

  2. 用pytorch1.0快速搭建简单的神经网络

    用pytorch1.0搭建简单的神经网络 import torch import torch.nn.functional as F # 包含激励函数 # 建立神经网络 # 先定义所有的层属性(__in ...

  3. 用pytorch1.0搭建简单的神经网络:进行多分类分析

    用pytorch1.0搭建简单的神经网络:进行多分类分析 import torch import torch.nn.functional as F # 包含激励函数 import matplotlib ...

  4. 用pytorch1.0搭建简单的神经网络:进行回归分析

    搭建简单的神经网络:进行回归分析 import torch import torch.nn.functional as F # 包含激励函数 import matplotlib.pyplot as p ...

  5. 深度学习(五)基于tensorflow实现简单卷积神经网络Lenet5

    原文作者:aircraft 原文地址:https://www.cnblogs.com/DOMLX/p/8954892.html 参考博客:https://blog.csdn.net/u01287127 ...

  6. (转)一文学会用 Tensorflow 搭建神经网络

    一文学会用 Tensorflow 搭建神经网络 本文转自:http://www.jianshu.com/p/e112012a4b2d 字数2259 阅读3168 评论8 喜欢11 cs224d-Day ...

  7. 用Tensorflow搭建神经网络的一般步骤

    用Tensorflow搭建神经网络的一般步骤如下: ① 导入模块 ② 创建模型变量和占位符 ③ 建立模型 ④ 定义loss函数 ⑤ 定义优化器(optimizer), 使 loss 达到最小 ⑥ 引入 ...

  8. 基于tensorflow搭建一个神经网络

    一,tensorflow的简介 Tensorflow是一个采用数据流图,用于数值计算的 开源软件库.节点在图中表示数字操作,图中的线 则表示在节点间相互联系的多维数据数组,即张量 它灵活的架构让你可以 ...

  9. 一文学会用 Tensorflow 搭建神经网络

    http://www.jianshu.com/p/e112012a4b2d 本文是学习这个视频课程系列的笔记,课程链接是 youtube 上的,讲的很好,浅显易懂,入门首选, 而且在github有代码 ...

随机推荐

  1. soj2012.King(有向图+蛋疼得一逼)

    Description There are n children in a country marked by integers from 1 to n. They often fight with ...

  2. 使用jQuery仿淘宝商城多格焦点图滚动切换效果

    1.效果及功能说明 图片滚动切换特效,高仿2012淘宝商城首页多格子焦点图切换,鼠标滑过焦点图片各个格子区域聚光灯效果展示 2.实现原理 在显示div的下面有一个按钮条在鼠标触及到按钮的时候会改变那妞 ...

  3. Elasticsearch6.3 使用jdbc连接

    Elasticsearch6.3开始执行sql,可以和使用数据库一样的CRUD进行操作elasticsearch,连接过程如下(安装下载Elasticsearch略): 一:项目中添加maven依赖 ...

  4. 字典树&&01字典树专题&&对字典树的理解

    对于字典树和01字典树的一点理解: 首先,字典树建树的过程就是按照每个数的前缀来的,如果你要存储一个全小写字母字符串,那么这个树每一个节点最多26个节点,这样的话,如果要找特定的单词的话,按照建树的方 ...

  5. jq 监听input值的变化

    $(".popWeiXing .name").bind("input propertychange", function() { modValue.diyDat ...

  6. Django中的QuerySet

    一.QuerySet 查询集,类似一个列表,包含了满足查询条件的所有项.QuerySet 可以被构造,过滤,切片,做为参数传递,这些行为都不会对数据库进行操作.只有你查询的时候才真正的操作数据库.意味 ...

  7. JUnit基本介绍

    一.什么是单元测试 单元测试(Unit  Testing)是指在计算机编程中,针对程序模块来进行正确性检验的测试工作.单元测试的特点如下: ※ 程序单元是应用最小的可测试部件,通常采用基于类或者类的方 ...

  8. 26 About the go command go命令行

    About the go command  go命令行 Motivation Configuration versus convention Go's conventions Getting star ...

  9. 试用Redis

    Windows 10家庭中文版,运行于VirtualBox上的Ubuntu 18.04,Redis 4.0.10, Redis,久仰大名!因为没有从事互联网行业,所以一直没有使用过.近期找工作,也隐约 ...

  10. scrapy shell命令的【选项】简介

    在使用scrapy shell测试某网站时,其返回400 Bad Request,那么,更改User-Agent请求头信息再试. DEBUG: Crawled () <GET https://w ...