tf版本1.13.1,CPU 最近在tf里新学了一个函数,一查发现和tf.random_normal差不多,于是记录一下.. 1.首先是tf.truncated_normal函数 tf.truncated_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None) shape是张量维度,mean是正态分布是均值,stddev是正态分布的标准差: 它是从截断的正态分布中输出随机值,虽然同样是输出正态分布,但…
____tz_zs tf.random_normal 从正态分布中输出随机值. . <span style="font-size:16px;">random_normal(shape,mean=0.0,stddev=1.0,dtype=tf.float32,seed=None,name=None)</span> . shape:一个一维整数张量或Python数组.代表张量的形状. mean:数据类型为dtype的张量值或Python值.是正态分布的均值. std…
1.tf.truncated_normal使用方法 tf.truncated_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None) 从截断的正态分布中输出随机值. 生成的值服从具有指定平均值和标准偏差的正态分布,如果生成的值大于平均值2个标准偏差的值则丢弃重新选择. 在正态分布的曲线中,横轴区间(μ-σ,μ+σ)内的面积为68.268949%. 横轴区间(μ-2σ,μ+2σ)内的面积为95.4499…
tf.truncated_normal函数 tf.truncated_normal( shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None ) 定义在:tensorflow/python/ops/random_ops.py. 请参阅指南:生成常量.序列和随机值>随机张量 从截断的正态分布中输出随机值. 生成的值遵循具有指定平均值和标准偏差的正态分布,不同之处在于其平均值大于 2 个标准差的值将被丢弃并重新选择. 函…
个人理解:就是TF的一种输入语法. 跟C语言的scanf(),C++的 cin>> 意思差不多,只是长相奇怪了点而已. 做完下面几个例子,基本也就适应了. 首先占位符申请空间:使用的时候,通过占位符“喂(feed)”给程序.然后程序就可以run了... 理解的不一定对,也不够深入,仅供参考. import tensorflow as tf tf.placeholder 占位符 tf.Session 会话 1. 输出 Hello World Str = tf.placeholder(tf.str…
1. tf.nn.conv2d(x, w, strides=[1, 1, 1, 1], padding='SAME')  # 对数据进行卷积操作 参数说明:x表示输入数据,w表示卷积核, strides表示步长,分别表示为样本数,长,宽,通道数,padding表示补零操作 2. tf.nn.max_pool(x, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')  # 对数据进行池化操作 参数说明:x表示输入数据,ksize表示卷…
tf.random_normal 从正态分布输出随机值. random_normal(shape,mean=0.0,stddev=1.0,dtype=tf.float32,seed=None,name=None) shape:一个一维整数张量或Python数组.代表张量的形状.mean:数据类型为dtype的张量值或Python值.是正态分布的均值.stddev:数据类型为dtype的张量值或Python值.是正态分布的标准差dtype: 输出的数据类型.seed:一个Python整数.是随机种…
原文地址: https://blog.csdn.net/c20081052/article/details/82345454 --------------------------------------------------------------------------------------------------- 在服务器上用多GPU做训练时,由于想只用其中的一个GPU设备做训练,可使用深度学习代码运行时往往出现多个GPU显存被占满清理.出现该现象主要是tensorflow训练时默认占…
A quick glance through tensorflow/python/layers/core.py and tensorflow/python/ops/nn_ops.pyreveals that tf.layers.dropout is a wrapper for tf.nn.dropout. You want to use the dropout() function in tensorflow.contrib.layers, not the one in tensorflow.n…
1. 使用tf.random_normal([2, 3], mean=-1, stddev=4) 创建一个正态分布的随机数 参数说明:[2, 3]表示随机数的维度,mean表示平均值,stddev表示标准差 代码:生成一个随机分布的值 #1. 创建一个正态分布的随机数 sess = tf.Session() x = tf.random_normal([2, 3], mean=-1, stddev=4) print(sess.run(x)) 2. np.random.shuffle(y) # 对数…
0. 四则运算 平方:tf.square(),开方:tf.sqrt() tf.add().tf.sub().tf.mul().tf.div().tf.mod().tf.abs().tf.neg() 1. 简单数理统计 Rn→R(从矢量到标量),意味着一种约简(reduce). 均值:tf.reduce_mean,求和:tf.reduce_sum stddev = tf.sqrt(tf.reduce_mean(tf.square(var - mean))) 最大最小(极值):tf.reduce_m…
tf.assign(ref, value, validate_shape=None, use_locking=None, name=None), 函数功能是将value赋值给ref ref必须是tf.Variable创建的tensor,如果ref=tf.constant()就会报错,而且默认情况下ref的shape和value的shape是相同的 import tensorflow as tf state = tf.Variable(0,name='counter') print(state.n…
placeholder函数相当于一个占位符,tf.placeholder(dtype, shape=None, name=None) dtype:数据类型.常用的是tf.float32,tf.float64等数值类型 shape:数据形状.默认是None,就是一维值,也可以多维,比如:[None,3],表示列是3,行不一定 name:名称. input1 = tf.placeholder(tf.float32) input2 = tf.placeholder(tf.float32) output…
tf.truncated_normal truncated_normal( shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None ) 功能说明: 产生截断正态分布随机数,取值范围为 [ mean - 2 * stddev, mean + 2 * stddev ]. 参数列表: 参数名 必选 类型 说明 shape 是 1 维整形张量或 array 输出张量的维度 mean 否 0 维张量或数值 均值 stddev…
tf.truncated_normal(shape, mean, stddev) :shape表示生成张量的维度,mean是均值,stddev是标准差.这个函数产生正太分布,均值和标准差自己设定.这是一个截断的产生正太分布的函数,就是说产生正太分布的值如果与均值的差值大于两倍的标准差,那就重新生成.和一般的正太分布的产生随机数据比起来,这个函数产生的随机数与均值的差距不会超过两倍的标准差,但是一般的别的函数是可能的. 例如: import tensorflow as tf; import num…
1. tf.add(x,  y, name) Args: x: A `Tensor`. Must be one of the following types: `bfloat16`, `half`, `float32`, `float64`, `uint8`, `int8`, `int16`, `int32`, `int64`, `complex64`, `complex128`, `string`. y: A `Tensor`. Must have the same type as `x`.…
https://blog.csdn.net/lanchunhui/article/details/61712830 https://www.cnblogs.com/silence-tommy/p/7029561.html 二者的主要区别在于: tf.Variable:主要在于一些可训练变量(trainable variables),比如模型的权重(weights,W)或者偏执值(bias): 声明时,必须提供初始值: 名称的真实含义,在于变量,也即在真实训练时,其值是会改变的,自然事先需要指定初…
函数原型: tf.assign(ref, value, validate_shape=None, use_locking=None, name=None)   Defined in tensorflow/python/ops/state_ops.py.   将 value 赋值给 ref,并输出 ref,即 ref = value:   这使得需要使用复位值的连续操作变简单   Defined in tensorflow/python/framework/tensor_shape.py. Arg…
tf.add_to_collection(name, value)  用来把一个value放入名称是'name'的集合,组成一个列表; tf.get_collection(key, scope=None) 用来获取一个名称是'key'的集合中的所有元素,返回的是一个列表,列表的顺序是按照变量放入集合中的先后;   scope参数可选,表示的是名称空间(名称域),如果指定,就返回名称域中所有放入'key'的变量的列表,不指定则返回所有变量. tf.add_n(inputs, name=None),…
本文转载自:https://blog.csdn.net/iTaacy/article/details/72799833 版权声明:欢迎转载,转载请注明出处! https://blog.csdn.net/iTaacy/article/details/72799833 TensorFlow CPU环境 SSE/AVX/FMA 指令集编译 sess.run()出现如下Warning # 通过pip install tensorflow 来安装tf在 sess.run() 的时候可能会出现 W tens…
1.  tf.split(3, group, input)  # 拆分函数    3 表示的是在第三个维度上, group表示拆分的次数, input 表示输入的值 import tensorflow as tf import numpy as np x = [[1, 2], [3, 4]] Y = tf.split(axis=1, num_or_size_splits=2, value=x) sess = tf.Session() for y in Y: print(sess.run(y))…
ValueError: Variable conv1/weights1 already exists, disallowed. Did you mean to set reuse=True in VarScope? Originally defined at: 在使用tensorflow 中的tf.variable_scope和tf.get_variable搭建网络时,重复运行程序会报以上的ValueError错误,这是因为第二次运行时,内存中已经存在名字相同的层或者参数,发生了冲突,所以会提示…
Update:2019/09/21 使用 tf.keras 时,请使用 tf.keras.optimizers 里面的优化器,不要使用 tf.train 里面的优化器,不然学习率衰减会出现问题. 使用 tf.keras 过程中,如果要使用 learning rate decay,不要使用 tf.train.AdamOptimizer() 等 tf.train 内的优化器,因为学习率的命名不同,导致 tf.keras 中学习率衰减的函数无法使用,一般都会报错 "AttributeError: 'T…
#### ''' tf.train.slice_input_producer :定义样本放入文件名队列的方式[迭代次数,是否乱序],但此时文件名队列还没有真正写入数据 slice_input_producer(tensor_list, num_epochs=None, shuffle=True, seed=None,capacity=32, shared_name=None, name=None) tensor_list:如[images,labels] = [['img1','image2',…
这一章我们借着之前的NER的模型聊聊tensorflow serving,以及gRPC调用要注意的点.以下代码为了方便理解做了简化,完整代码详见Github-ChineseNER ,里面提供了训练好的包括bert_bilstm_crf, bilstm_crf_softlexcion,和CWS+NER多任务在内的4个模型,可以开箱即用.这里tensorflow模型用的是estimator框架,整个推理环节主要分成:模型export,warmup,serving, client request四步…
tf.expand_dims和tf.squeeze函数 一.tf.expand_dims() Function tf.expand_dims(input, axis=None, name=None, dim=None) Inserts a dimension of 1 into a tensor’s shape. 在第axis位置增加一个维度 Given a tensor input, this operation inserts a dimension of 1 at the dimensio…
tf.GraphKeys类存放了图集用到的标准名称. 该标准库使用各种已知的名称收集和检索图中相关的值.例如,tf.Optimizer子类在没有明确指定待优化变量的情况下默认优化被收集到tf.GraphKeys.TRAINABLE_VARIABLES中的变量:但如果通过列表的形式明确地指定了需要优化的变量,那优化器就会优化指定的变量. Graph中定义了下列standard keys: GLOBAL_VARIABLES: 变量对象的默认集合,在分布式环境中被共享.通常,所有的TRAINABLE_…
tf.trainable_variable() 此函数返回的是需要训练的变量列表 tf.all_variable() 此函数返回的是所有变量列表 v = tf.Variable(tf.constant(0.0, shape=[1], dtype=tf.float32), name='v') v1 = tf.Variable(tf.constant(5, shape=[1], dtype=tf.float32), name='v1') global_step = tf.Variable(tf.co…
tf.name_scope() 此函数作用是共享变量.在一个作用域scope内共享一些变量,简单来说,就是给变量名前面加个变量空间名,只限于tf.Variable()的变量 tf.variable_scope() 和tf.name_scope()作用一样,不过包括tf.get_variable()的变量和tf.Variable()的变量 在同一个程序中多次调用,在第一次调用之后需要将reuse参数设置为True with tf.variable_scope("one"): a = tf…
tf.Variable(<initial - value>,name=<optional - name>) 此函数用于定义图变量.生成一个初始值为initial - value的变量. tf.get_variable(name,shape,dtype,initializer,trainable) 此函数用于定义图变量.获取已经存在的变量,如果不存在,就新建一个 参数: name:名称 shape:数据形状. dtype:数据类型.常用的tf.float32,tf.float64等数…