关于tensorflow conv2d卷积备忘的一点理解
**************input**************
[[[[-0.36166722 0.04847232 1.20818889 -0.1794038 -0.53244466]
[-0.67821187 -1.81838071 0.59005165 -1.17246294 0.33203208]
[-0.18631086 -0.68608224 0.07464688 0.28875718 -0.86492658]]
[[ 1.63322294 0.99059737 0.5923292 -0.80913633 -2.2539773 ]
[ 0.14436921 -0.45454684 -0.61321616 -1.01231539 1.54901564]
[ 0.38690856 1.84936357 0.55067211 0.3163861 -0.62082398]]
[[ 0.3655189 1.96013069 0.91159737 1.89106071 2.04635859]
[-1.13240027 -1.64421642 -1.23379624 -0.18057458 -0.37131071]
[-0.55824232 0.5738467 -1.02291656 0.8829596 -2.15986562]]]]
(1, 3, 3, 5)
*****************filter*************
[[[[ 0.43657559 1.01129627]
[ 0.30303505 1.57386982]
[ 0.63144618 -0.38221657]
[ 1.03055692 0.27556673]
[ 0.14717487 -0.47002205]]]]
(1, 1, 5, 2)
***************result************
[[[[ 0.35645172 -0.55043042]
[-1.63396096 -4.25244951]
[-0.07182495 -0.81064451]]
[[ 0.22164512 3.82079363]
[-1.27720094 -1.34204817]
[ 1.31174088 3.47044706]]
[[ 3.57920766 2.66549063]
[-2.0124495 -3.1366334 ]
[-0.12367389 1.98808599]]]]
(1, 3, 3, 2)
import tensorflow as tf
input = tf.Variable(tf.random_normal([1,3,3,5]));
filter = tf.Variable(tf.random_normal([1,1,5,2]));
op = tf.nn.conv2d(input,filter,strides=[1,1,1,1],padding='VALID');
with tf.Session() as sess:
sess.run(tf.initialize_all_variables());
result=sess.run(op);
print('**************input**************');
print(sess.run(input));
print(input.shape);
print('*****************filter*************');
print(sess.run(filter));
print(filter.shape);
print('***************result************');
print(result);
print(result.shape);
关于tensorflow conv2d卷积备忘的一点理解的更多相关文章
- TensorFlow anaconda命令备忘
[查看tensorflow安装的版本] anaconda search -t conda tensorflow [选择版本安装] conda install -c anaconda tensorflo ...
- TCP的拥塞窗口和快速恢复机制的一些备忘及一点想法
rwnd(窗口,代表接收端的处理能力).cwnd(拥塞窗口,从发送端看当前网络整体承载能力).ssthresh(快速增长切换成慢速增长的界限值) 1.慢启动,是指数增长(对面确认多少个包,就增加多少) ...
- CNN中的卷积核及TensorFlow中卷积的各种实现
声明: 1. 我和每一个应该看这篇博文的人一样,都是初学者,都是小菜鸟,我发布博文只是希望加深学习印象并与大家讨论. 2. 我不确定的地方用了"应该"二字 首先,通俗说一下,CNN ...
- TensorFlow中卷积
CNN中的卷积核及TensorFlow中卷积的各种实现 声明: 1. 我和每一个应该看这篇博文的人一样,都是初学者,都是小菜鸟,我发布博文只是希望加深学习印象并与大家讨论. 2. 我不确定的地方用了“ ...
- Cheat (tldr, bropages) - Unix命令用法备忘单
cheat 是一个Unix命令行小工具,用来查询一些常用命令的惯用法(我们都知道,man page阅读起来太累了,常常是跳到最后去看 examples,但并不是所有man pages里面都有examp ...
- 使用TensorFlow的卷积神经网络识别自己的单个手写数字,填坑总结
折腾了几天,爬了大大小小若干的坑,特记录如下.代码在最后面. 环境: Python3.6.4 + TensorFlow 1.5.1 + Win7 64位 + I5 3570 CPU 方法: 先用MNI ...
- AngularJS之备忘与诀窍
译自:<angularjs> 备忘与诀窍 目前为止,之前的章节已经覆盖了Angular所有功能结构中的大多数,包括指令,服务,控制器,资源以及其它内容.但是我们知道有时候仅仅阅读是不够的. ...
- mxnet与tensorflow的卷积实现细节比较
mxnet的卷积 kernel = 3 pad=1边界补充0后,不管stride是否1还是2,imgw = 奇数或者偶数, 都是从图像位置(0,0)开始卷积 tensorlfow的卷积 kernel ...
- Annotation 使用备忘
title: Annotation 使用备忘 date: 2016-11-16 23:16:43 tags: [Annotation] categories: [Programming,Java] - ...
随机推荐
- 递归打印lua中的table
在lua中,table是比较常用的数据形式,有时候为了打印出里面的内容,需要做一些特殊处理. 废话不多讲,直接粘代码: print = release_print -- 递归打印table local ...
- 第二次scrum
scrum说明 在第一次已有的基础上,进行了具体的实现.完成了具体的界面设计,还有各个栏目,如:发帖,搜索,禁言等. 类图 依次是外观模式图,发帖图,禁言图. 外观模式图 发帖图 禁言图 团队成员 潘 ...
- js基础知识:字面量 关键字和保留字
js中的字面量概念我的理解就是:字体表面的常量 如:数字 100, 字符串 "ssss"或'ssss' 布尔值:false ,正则 以及null对象. 这些都是常量. 关键字: ...
- noip第27课资料
- C++的IO处理中的头文件以及类理解(1)
C++语言不直接处理输入输出,而是通过一簇定义在标准库中的类型来处理IO.这些类型支持从设备读取数据.向设备写入数据的IO操作,设备可以是文件.控制台窗口等,还有一些类型允许内存IO,即,从strin ...
- ubuntu+apache2设置访问、重定向到https
环境:ubunt14裸机,apache2,php5 条件:证书(部分商家买域名送一年),域名,为了方便均在root用户下进行的 web目录:/var/www/test 证书目录(自建):/etc/ap ...
- 转 tomcat+nginx+redis实现均衡负载、session共享(二)
http://www.cnblogs.com/zhrxidian/p/5491285.html http://www.cnblogs.com/zhrxidian/p/5432886.html
- 一次java Cpu占用过高的排查
某一个项目CPU占用率一直很高,经常在40%-50%之间,最近比较闲,就开始了排查工作. 1.通过 jstack命令输出进程的堆栈信息 jstack 2788 >C:\log.txt 将堆栈信息 ...
- 16bit CRC算法C语言实现
#define CRC_16_POLYNOMIALS 0x8005 unsigned short CRC16_3(unsigned char* pchMsg, unsigned short wData ...
- jquery mobile Touch事件
Touch事件在用户触摸屏幕(页面)时触发 1.jquery mobile tap tap事件在用户敲击某个元素时触发 $("p").on("tap",fucn ...