------------------------------------ 写在开头:此文参照莫烦python教程(墙裂推荐!!!) ------------------------------------ TensorFlow之建造第一个神经网络 1 定义添加层 import tensorflow as tf def add_layer(inputs,in_size,out_size,activation_function=None): Weights = tf.Variable(tf.rand…
------------------------------------ 写在开头:此文参照莫烦python教程(墙裂推荐!!!) ------------------------------------ TensorFlow入门笔记之基础架构 1 构建简单神经网络:一维线性预测 #导入相关库 import tensorflow as tf import numpy as np #用随机数生成x x_data = np.random.rand(100).astype(np.float32) #生…
Gokula Krishnan Santhanam认为,大部分深度学习框架都包含以下五个核心组件: 张量(Tensor) 基于张量的各种操作 计算图(Computation Graph) 自动微分(Automatic Differentiation)工具 BLAS.cuBLAS.cuDNN等拓展包 . . 一.张量的理解 本节主要参考自文章<开发丨深度学习框架太抽象?其实不外乎这五大核心组件> . 1.张量的解读 张量是所有深度学习框架中最核心的组件,因为后续的所有运算和优化算法都是基于张量进…
import tensorflow as tf import numpy as np #input就是输入数据,输入矩阵,in_size就是输入矩阵的列数(数据属性数量),out_size输出矩阵列数#activation_function就是激活函数 def add_layer(input,in_size,out_size,activation_function): Weight=tf.Variable(tf.random_normal([in_size,out_size])) biases=…
------------------------------------ 写在开头:此文参照莫烦python教程(墙裂推荐!!!) ------------------------------------ 循环神经网络RNN 相关名词: - LSTM:长短期记忆 - 梯度消失/梯度离散 - 梯度爆炸 - 输入控制:控制是否把当前记忆加入主线网络 - 忘记控制:控制是否暂时忘记主线网络,先看当前分线 - 输出控制: 控制输出是否要考虑要素 - 数据有顺序的/序列化 - 前面的影响后面的 RNN L…
卷积神经网络比神经网络稍微复杂一些,因为其多了一个卷积层(convolutional layer)和池化层(pooling layer). 使用mnist数据集,n个数据,每个数据的像素为28*28*1=784.先让这些数据通过第一个卷积层,在这个卷积上指定一个3*3*1的feature,这个feature的个数设为64.接着经过一个池化层,让这个池化层的窗口为2*2.然后在经过一个卷积层,在这个卷积上指定一个3*3*64的feature,这个featurn的个数设置为128,.接着经过一个池化…
一.上下文管理器(context manager) 上下文管理器是实现了上下文协议的对象,主要用于资源的获取与释放.上下文协议包括__enter__.__exit__,简单说就是,具备__enter__()和__exit__()方法的类就可以实现上下文管理,做到文件的自动关闭,这样的类实例化的对象就是上下文管理器. 典型的例子就是读写文件的操作.使用open()函数打开文件,操作之后再用close()函数关闭文件.如果使用上下文管理器的的话就会简洁方便些,因为File()类内部包含有__ente…
tensorflow提供的tf.train.ExponentialMovingAverage 类利用指数衰减维持变量的滑动平均. 当训练模型的时候,保持训练参数的滑动平均是非常有益的.评估时使用取平均后的参数有时会产生比使用最终训练好的参数值好很多的效果.方法apply()会添加被训练变量的影子副本和在影子副本中维持被训练变量的滑动平均的若干操作.该方法在创建训练模型时使用.那些保持维持滑动平均的操作(ops)一般会在每个训练步骤之后被执行.average()和average_name()方法分…
加载数据集. 这里的keep_prob是dropout的一个参数.dropout是一种随机置零的策略,用来防止模型过拟合. 这里定义两层,上面是卷积层,下面是池化层. 搭建了一层卷积.一层池化.一层卷积.一层池化.之后将输出展平,输入到全连接层里,进行输出,激活函数选用了relu函数. 这是上面神经网络用到的参数. 之后我们构建模型,pred是整个网络的输出. cost设置为交叉熵 \[l(\varphi)=ylog(1-\varphi)+(1-y)log(1-\varphi)\] 优化器设置为…
模块内的函数: tf.summary.audio(name, tensor, sample_rate, max_outputs=3, collections=None, family=None) 输出带有音频的summary协议缓冲区. tf.summary.get_summary_description(node_def) 根据给定的TensorSummary node_def检索对应的SummaryDescription.当summary op被实例化时,相关元数据的 SummaryDesc…