转载:https://www.cnblogs.com/yuzhuwei/p/6986171.html 1.概述 在深度学习里研究的物体的关系,都是比较复杂的.比如一个图片32X32大小的,它的像素信息就有1024个点,如果考虑RGB三种颜色,就是1024X3了.对于目前还没有办法构造140亿个神经元的计算机来说,只能干一件事情,就是简化,化繁为简.为了简化,就需要使用算法来进行,在数学上最简单的处理,就是求平均值.这个道理非常简单,如果10个数,只要把它们相加,再除以10即可.对于0维数字,可以…
tf.reduce_mean 函数用于计算张量tensor沿着指定的数轴(tensor的某一维度)上的的平均值,主要用作降维或者计算tensor(图像)的平均值. reduce_mean(input_tensor, axis=None, keep_dims=False, name=None, reduction_indices=None) 第一个参数input_tensor: 输入的待降维的tensor; 第二个参数axis: 指定的轴,如果不指定,则计算所有元素的均值; 第三个参数keep_d…
1.求loss: tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None)) 第一个参数logits:就是神经网络最后一层的输出,如果有batch的话,它的大小就是[batchsize,num_classes],单样本的话,大小就是num_classes 第二个参数labels:实际的标签,大小同上 具体的执行流程大概分为两步: 第一步是先对网络最后一层的输出做一个softmax,这一步通常…
参考 1. tensorflow中 tf.reduce_mean函数: 完…
1.保存 将训练好的模型参数保存起来,以便以后进行验证或测试.tf里面提供模型保存的是tf.train.Saver()模块. 模型保存,先要创建一个Saver对象:如 saver=tf.train.Saver() 在创建这个Saver对象的时候,有一个参数经常会用到,max_to_keep 参数,这个是用来设置保存模型的个数,默认为5,即 max_to_keep=5,保存最近的5个模型.如果想每训练一代(epoch)就想保存一次模型,则可以将 max_to_keep设置为None或者0,但是这样…
tf.nn.max_pool(value, ksize, strides, padding, name=None) 参数是四个,和卷积很类似: 第一个参数value:需要池化的输入,一般池化层接在卷积层后面,所以输入通常是feature map,依然是[batch, height, width, channels]这样的shape 第二个参数ksize:池化窗口的大小,取一个四维向量,一般是[1, height, width, 1],因为我们不想在batch和channels上做池化,所以这两个…
tf.reduce_mean reduce_mean( input_tensor, axis=None, keep_dims=False, name=None, reduction_indices=None ) 功能说明: 计算张量 input_tensor 平均值 参数列表: 参数名 必选 类型 说明 input_tensor 是 张量 输入待求平均值的张量 axis 否 None.0.1 None:全局求平均值:0:求每一列平均值:1:求每一行平均值 keep_dims 否 Boolean…
tf.reduce_sum 函数 reduce_sum ( input_tensor , axis = None , keep_dims = False , name = None , reduction_indices = None ) 定义在:tensorflow/python/ops/math_ops.py. 请参阅指南:数学函数>减少 此函数计算一个张量的各个维度上元素的总和. 函数中的input_tensor是按照axis中已经给定的维度来减少的:除非 keep_dims 是true,…
sess=tf.Session() a=np.array([1,2,3,5.]) # 此代码保留为浮点数 a1=np.array([1,2,3,5]) # 此代码保留为整数 c=tf.reduce_mean(a)d=sess.run(c)print(a)print(d)c1=tf.reduce_mean(a1)d1=sess.run(c1)print(a1)print(d1) 总结:tf.reduce_mean(a,axis)是均值,其中a是输入矩阵,axis是从什么维度求均值.然而,代码运行发…
在分析训练代码的时候,遇到了,tf.contrib.crf.crf_log_likelihood,这个函数,于是想简单理解下: 函数的目的:使用crf 来计算损失,里面用到的优化方法是:最大似然估计 使用方法: tf.contrib.crf.crf_log_likelihood(inputs, tag_indices, sequence_lengths, transition_params=None) See the guide: CRF (contrib) Computes the log-l…