TensorFlow(3)CNN中的函数
tf.nn.conv2d()函数
参数介绍:
tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)
input:输入参数,具有这样的shape[batch, in_height, in_width, in_channels],分别是[batch张图片, 每张图片高度为in_height, 每张图片宽度为in_width, 图像通道为in_channels].
filter:滤波器,滤波器的shape为[filter_height, filter_width, in_channels, out_channels],分别对应[滤波器高度, 滤波器宽度, 接受图像的通道数, 卷积后通道数],其中第三个参数 in_channels需要与input中的第四个参数 in_channels一致.
strides:代表步长,其值可以直接默认一个数,也可以是一个四维数如[1,2,1,1],则其意思是水平方向卷积步长为第二个参数2,垂直方向步长为1.
padding:代表填充方式,参数只有两种,SAME和VALID,SAME比VALID的填充方式多了一列,比如一个3*3图像用2*2的滤波器进行卷积,当步长设为2的时候,会缺少一列,则进行第二次卷积的时候,VALID发现余下的窗口不足2*2会直接把第三列去掉,SAME则会填充一列,填充值为0.
use_cudnn_on_gpu:bool类型,是否使用cudnn加速,默认为true.
name:给返回的tensor命名。给输出feature map起名字.
例子:
一张3*3的图片,元素如下:
| * | * | * |
|---|---|---|
| 0 | 3 | 6 |
| 1 | 4 | 7 |
| 2 | 5 | 8 |
卷积核为1个2*2的卷积,如下:
| * | * |
|---|---|
| 0 | 2 |
| 1 | 3 |
TensorFlow代码(padding为SAME):
import tensorflow as tf
import numpy as np
g = tf.Graph()
with g.as_default() as g:
input = tf.Variable(np.array(range(9), dtype=np.float32).reshape(1,3,3,1))
filter = tf.Variable(np.array(range(4), dtype=np.float32).reshape(2,2,1,1))
op = tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding='SAME')
with tf.Session(graph=g) as sess:
sess.run(tf.global_variables_initializer())
a,b,c = sess.run([input, filter, op])
print(a)
print(b)
print(c)
输出:
[[[[ 0.]
[ 1.]
[ 2.]]
[[ 3.]
[ 4.]
[ 5.]]
[[ 6.]
[ 7.]
[ 8.]]]]
[[[[ 0.]]
[[ 1.]]]
[[[ 2.]]
[[ 3.]]]]
[[[[ 19.]
[ 25.]
[ 10.]]
[[ 37.]
[ 43.]
[ 16.]]
[[ 7.]
[ 8.]
[ 0.]]]]
即卷积后的结果为:
| * | * | * |
|---|---|---|
| 19 | 37 | 7 |
| 25 | 43 | 8 |
| 10 | 16 | 0 |
如果padding为VALID,则输出如下:
[[[[ 0.]
[ 1.]
[ 2.]]
[[ 3.]
[ 4.]
[ 5.]]
[[ 6.]
[ 7.]
[ 8.]]]]
[[[[ 0.]]
[[ 1.]]]
[[[ 2.]]
[[ 3.]]]]
[[[[ 19.]
[ 25.]]
[[ 37.]
[ 43.]]]]
即卷积后的结果为:
| * | * |
|---|---|
| 19 | 37 |
| 25 | 43 |
tf.nn.max_pool()函数
tf.nn.max_pool(value, ksize, strides, padding, name=None)
参数是四个,和卷积函数很类似:
value:需要池化的输入,一般池化层接在卷积层后面,所以输入通常是feature map,依然是[batch, height, width, channels]这样的shape.
ksize:池化窗口的大小,取一个四维向量,一般是[1, height, width, 1],因为我们不想在batch和channels上做池化,所以这两个维度设为了1.
strides:和卷积类似,窗口在每一个维度上滑动的步长,一般也是[1, stride,stride, 1].
padding:和卷积类似,可以取'VALID' 或者'SAME'.
返回一个Tensor,类型不变,shape仍然是[batch, height, width, channels]这种形式.
TensorFlow代码:
import tensorflow as tf
import numpy as np
g = tf.Graph()
with g.as_default() as g:
input = tf.Variable(np.array(range(9), dtype=np.float32).reshape(1,3,3,1))
filter = tf.Variable(np.array(range(4), dtype=np.float32).reshape(2,2,1,1))
op = tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding='SAME')
pool = tf.nn.max_pool(op, [1,2,2,1], [1,1,1,1], padding='SAME')
with tf.Session(graph=g) as sess:
sess.run(tf.global_variables_initializer())
PL = sess.run(pool)
print(PL)
输出:
[[[[ 43.]
[ 43.]
[ 16.]]
[[ 43.]
[ 43.]
[ 16.]]
[[ 8.]
[ 8.]
[ 0.]]]]
| * | * | * |
|---|---|---|
| 43 | 43 | 8 |
| 43 | 43 | 8 |
| 16 | 16 | 0 |
tf.nn.avg_pool()
计算方法: 计算非padding的元素的平均值
例子:
import tensorflow as tf
import numpy as np
g = tf.Graph()
with g.as_default() as g:
input = tf.Variable(np.array(range(9), dtype=np.float32).reshape(1,3,3,1))
filter = tf.Variable(np.array(range(4), dtype=np.float32).reshape(2,2,1,1))
op = tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding='SAME')
pool = tf.nn.avg_pool(op, [1,2,2,1], [1,1,1,1], padding='SAME')
with tf.Session(graph=g) as sess:
sess.run(tf.global_variables_initializer())
PL = sess.run(pool)
print(PL)
输出为:
[[[[31. ]
[23.5 ]
[13. ]]
[[23.75]
[16.75]
[ 8. ]]
[[ 7.5 ]
[ 4. ]
[ 0. ]]]]
| * | * | * |
|---|---|---|
| 31 | 23.75 | 7.5 |
| 23.5 | 16.75 | 4. |
| 13. | 8. | 0. |
tf.nn.dropout()
tf.nn.dropout(x, keep_prob, noise_shape=None, seed=None, name=None)
- x:输入参数
- keep_prob:保留比例。 取值 (0,1] 。每一个参数都将按这个比例随机变更
- noise_shape:干扰形状。 此字段默认是None,表示第一个元素的操作都是独立,但是也不一定。比例:数据的形状是shape(x)=[k, l, m, n],而noise_shape=[k, 1, 1, n],则第1和4列是独立保留或删除,第2和3列是要么全部保留,要么全部删除。
- seed:随机数种子
- name: 命名空间
tensorflow中的dropout就是:shape不变,使输入tensor中某些元素按照一定的概率变为0,其它没变0的元素变为原来的1/keep_prob.
dropout层的作用: 防止神经网络的过拟合
例子:
import tensorflow as tf
g = tf.Graph()
with g.as_default() as g:
mat = tf.Variable(tf.ones([10,10]))
dropout_mat = tf.nn.dropout(mat, keep_prob=0.5)
with tf.Session(graph=g) as sess:
sess.run(tf.global_variables_initializer())
output, dropout = sess.run([mat, dropout_mat])
print(output)
print(dropout)
输出:
[[1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
[1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
[1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
[1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
[1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
[1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
[1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
[1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
[1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
[1. 1. 1. 1. 1. 1. 1. 1. 1. 1.]]
[[2. 0. 0. 0. 2. 0. 2. 2. 0. 2.]
[0. 2. 0. 0. 2. 2. 0. 0. 0. 0.]
[2. 2. 2. 0. 0. 2. 0. 2. 0. 0.]
[2. 0. 0. 0. 2. 2. 2. 0. 2. 0.]
[0. 2. 2. 0. 2. 2. 2. 2. 0. 2.]
[2. 0. 0. 0. 2. 0. 0. 2. 0. 2.]
[2. 2. 0. 2. 2. 0. 0. 0. 2. 2.]
[2. 0. 0. 0. 0. 2. 0. 2. 0. 0.]
[2. 2. 0. 0. 0. 0. 0. 2. 0. 0.]
[2. 0. 2. 2. 2. 2. 0. 2. 0. 0.]]
tf.reshape()
shape里最多有一个维度的值可以填写为-1,表示自动计算此维度
TensorFlow(3)CNN中的函数的更多相关文章
- 基于TensorFlow理解CNN中的padding参数
1 TensorFlow中用到padding的地方 在TensorFlow中用到padding的地方主要有tf.nn.conv2d(),tf.nn.max_pool(),tf.nn.avg_pool( ...
- 第三节,TensorFlow 使用CNN实现手写数字识别(卷积函数tf.nn.convd介绍)
上一节,我们已经讲解了使用全连接网络实现手写数字识别,其正确率大概能达到98%,这一节我们使用卷积神经网络来实现手写数字识别, 其准确率可以超过99%,程序主要包括以下几块内容 [1]: 导入数据,即 ...
- CNN中的卷积核及TensorFlow中卷积的各种实现
声明: 1. 我和每一个应该看这篇博文的人一样,都是初学者,都是小菜鸟,我发布博文只是希望加深学习印象并与大家讨论. 2. 我不确定的地方用了"应该"二字 首先,通俗说一下,CNN ...
- tensorflow实现lstm中遇到的函数记录
函数一:initializer=tf.random_uniform_initializer(-0.1, 0.1, seed=123) tf.random_uniform_initializer 参数: ...
- Tensorflow简单CNN实现
觉得有用的话,欢迎一起讨论相互学习~Follow Me 少说废话多写代码~ """转换图像数据格式时需要将它们的颜色空间变为灰度空间,将图像尺寸修改为同一尺寸,并将标签依 ...
- 由浅入深:CNN中卷积层与转置卷积层的关系
欢迎大家前往腾讯云+社区,获取更多腾讯海量技术实践干货哦~ 本文由forrestlin发表于云+社区专栏 导语:转置卷积层(Transpose Convolution Layer)又称反卷积层或分数卷 ...
- TensorFlow基础笔记(11) conv2D函数
#链接:http://www.jianshu.com/p/a70c1d931395 import tensorflow as tf import tensorflow.contrib.slim as ...
- 2. Tensorflow的数据处理中的Dataset和Iterator
1. Tensorflow高效流水线Pipeline 2. Tensorflow的数据处理中的Dataset和Iterator 3. Tensorflow生成TFRecord 4. Tensorflo ...
- CNN中的卷积理解和实例
卷积操作是使用一个二维卷积核在在批处理的图片中进行扫描,具体的操作是在每一张图片上采用合适的窗口大小在图片的每一个通道上进行扫描. 权衡因素:在不同的通道和不同的卷积核之间进行权衡 在tensorfl ...
随机推荐
- js基础知识1:标识符 注释
何为标识符:意思是标记识别的的符号,简称标识符,主要的用途声明变量,函数的名字,属性以及函数中的参数. 标识符的规则1:首先第一个字符必须是字母(abcABC),_(下划线),$(美元符号).不能是( ...
- display:inline-block; 在css中是什么意思?
inline-block主要的用处是用来处理行内非替换元素的高宽问题的!行内非替换元素,比如span.a等标签,正常情况下士不能设置宽高的,加上该属性之后,就可以触发让这类标签表现得如块级元素一样,可 ...
- visual studio 2015 Opencv 3.4.0配置
因为想做AR方面,需要了解计算机视觉知识,决定从opencv开始入门,在网上买了本毛星云的<Opencv3编程入门>开始自学. 一.opencv 3.4.0下载安装 在官网http://o ...
- python+unittest 控制用例的执行顺序
unittest的main()方法执行用例的顺序是按照测试类.测试方法的名字的ASCII顺序来执行测试方法.所以可能执行的顺序和你想要的顺序不一样,可能通过下面两种方法修改执行顺序 1. 通过Test ...
- C语言窗口例子
#include <windows.h> LRESULT CALLBACK WndProc( HWND, UINT, WPARAM, LPARAM ) ; //声明用来处理消息的函数 in ...
- Javascript高级编程学习笔记(24)—— 函数表达式(2)闭包
昨天的文章中主要记录了,函数表达式与函数声明的区别 以及在JS中如何安全地使用递归 那么既然要深入地理解JS中的函数,闭包就是一个绕不开的概念 闭包 JS高编一书中对闭包的概念定义如下: 闭包是指有权 ...
- JDK8 新增的日期时间API
背景 JDK8中增加了一套全新的日期时间API,这里进行总结下,方便查询使用. 新的时间及日期API位于 java.time 包中,下面是一些关键类. Instant:代表的是时间戳. LocalDa ...
- 第54节:Java当中的IO流(中)
Java当中的IO流(中) 删除目录 // 简书作者:达叔小生 import java.io.File; public class Demo{ public static void main(Stri ...
- git gc和fsck的用法
一.保证git良好的性能 在大的仓库中, git靠压缩历史信息来节约磁盘和内存空间. 压缩操作并不是自动进行的, 你需要手动执行 git gc: $ git gc 压缩操作比较耗时, 你运行git g ...
- 使用maven插件构建docker镜像
为什么要用插件 主要还是自动化的考虑,如果额外使用Dockerfile进行镜像生成,可能会需要自己手动指定jar/war位置,并且打包和生成镜像间不同步,带来很多琐碎的工作. 插件选择 使用比较多的是 ...