关于tensorflow conv2d卷积备忘的一点理解
**************input**************
[[[[-0.36166722 0.04847232 1.20818889 -0.1794038 -0.53244466]
[-0.67821187 -1.81838071 0.59005165 -1.17246294 0.33203208]
[-0.18631086 -0.68608224 0.07464688 0.28875718 -0.86492658]]
[[ 1.63322294 0.99059737 0.5923292 -0.80913633 -2.2539773 ]
[ 0.14436921 -0.45454684 -0.61321616 -1.01231539 1.54901564]
[ 0.38690856 1.84936357 0.55067211 0.3163861 -0.62082398]]
[[ 0.3655189 1.96013069 0.91159737 1.89106071 2.04635859]
[-1.13240027 -1.64421642 -1.23379624 -0.18057458 -0.37131071]
[-0.55824232 0.5738467 -1.02291656 0.8829596 -2.15986562]]]]
(1, 3, 3, 5)
*****************filter*************
[[[[ 0.43657559 1.01129627]
[ 0.30303505 1.57386982]
[ 0.63144618 -0.38221657]
[ 1.03055692 0.27556673]
[ 0.14717487 -0.47002205]]]]
(1, 1, 5, 2)
***************result************
[[[[ 0.35645172 -0.55043042]
[-1.63396096 -4.25244951]
[-0.07182495 -0.81064451]]
[[ 0.22164512 3.82079363]
[-1.27720094 -1.34204817]
[ 1.31174088 3.47044706]]
[[ 3.57920766 2.66549063]
[-2.0124495 -3.1366334 ]
[-0.12367389 1.98808599]]]]
(1, 3, 3, 2)
import tensorflow as tf
input = tf.Variable(tf.random_normal([1,3,3,5]));
filter = tf.Variable(tf.random_normal([1,1,5,2]));
op = tf.nn.conv2d(input,filter,strides=[1,1,1,1],padding='VALID');
with tf.Session() as sess:
sess.run(tf.initialize_all_variables());
result=sess.run(op);
print('**************input**************');
print(sess.run(input));
print(input.shape);
print('*****************filter*************');
print(sess.run(filter));
print(filter.shape);
print('***************result************');
print(result);
print(result.shape);
关于tensorflow conv2d卷积备忘的一点理解的更多相关文章
- TensorFlow anaconda命令备忘
[查看tensorflow安装的版本] anaconda search -t conda tensorflow [选择版本安装] conda install -c anaconda tensorflo ...
- TCP的拥塞窗口和快速恢复机制的一些备忘及一点想法
rwnd(窗口,代表接收端的处理能力).cwnd(拥塞窗口,从发送端看当前网络整体承载能力).ssthresh(快速增长切换成慢速增长的界限值) 1.慢启动,是指数增长(对面确认多少个包,就增加多少) ...
- CNN中的卷积核及TensorFlow中卷积的各种实现
声明: 1. 我和每一个应该看这篇博文的人一样,都是初学者,都是小菜鸟,我发布博文只是希望加深学习印象并与大家讨论. 2. 我不确定的地方用了"应该"二字 首先,通俗说一下,CNN ...
- TensorFlow中卷积
CNN中的卷积核及TensorFlow中卷积的各种实现 声明: 1. 我和每一个应该看这篇博文的人一样,都是初学者,都是小菜鸟,我发布博文只是希望加深学习印象并与大家讨论. 2. 我不确定的地方用了“ ...
- Cheat (tldr, bropages) - Unix命令用法备忘单
cheat 是一个Unix命令行小工具,用来查询一些常用命令的惯用法(我们都知道,man page阅读起来太累了,常常是跳到最后去看 examples,但并不是所有man pages里面都有examp ...
- 使用TensorFlow的卷积神经网络识别自己的单个手写数字,填坑总结
折腾了几天,爬了大大小小若干的坑,特记录如下.代码在最后面. 环境: Python3.6.4 + TensorFlow 1.5.1 + Win7 64位 + I5 3570 CPU 方法: 先用MNI ...
- AngularJS之备忘与诀窍
译自:<angularjs> 备忘与诀窍 目前为止,之前的章节已经覆盖了Angular所有功能结构中的大多数,包括指令,服务,控制器,资源以及其它内容.但是我们知道有时候仅仅阅读是不够的. ...
- mxnet与tensorflow的卷积实现细节比较
mxnet的卷积 kernel = 3 pad=1边界补充0后,不管stride是否1还是2,imgw = 奇数或者偶数, 都是从图像位置(0,0)开始卷积 tensorlfow的卷积 kernel ...
- Annotation 使用备忘
title: Annotation 使用备忘 date: 2016-11-16 23:16:43 tags: [Annotation] categories: [Programming,Java] - ...
随机推荐
- Python Day 11
阅读目录 内容回顾 函数的参数 函数的嵌套调用 ##内容回顾 # 什么是函数:具体特定功能的代码块 - 特定功能代码块作为一个整体,并给该整体命名,就是函数 # 函数的优点: # 1.减少代码的冗余 ...
- 利用insertd查出更新记录
DROP TABLE #tableCREATE TABLE #table(CompanyID VARCHAR(20),BillNo VARCHAR(40))UPDATE dbo.SD_Inv_Move ...
- JavaScript基础视频教程总结(131-140章)
<!DOCTYPE html> <html> <head> <meta charset="utf-8" /> <title&g ...
- SVN服务端和客户端的安装与搭建
版权声明:本文为博主原创文章,转载请注明原文出处. https://blog.csdn.net/zzfenglin/article/details/50931462 SVN简介 SVN全名Subver ...
- 从Typescript看原型链
话不多说先来段代码 class Parent { private name:string; constructor(name) { this.name = name; } public getName ...
- python之路(十七)-javascript
JavaScript JavaScript是一门编程语言,浏览器内置了JavaScript语言的解释器,所以在浏览器上按照JavaScript语言的规则编写相应代码之,浏览器可以解释并做出相应的处理. ...
- uc/osⅡ/Ⅲ
1.关于任务堆栈时#if在main()中的用法: #if ... #else#endif//与#if对应作为一个编译“开关”,比如#if(条件满足) 执行代码1 #else 执行代码2 #endif ...
- 理解jsonp劫持漏洞
JSONP劫持 存在漏洞的链接格式类似于以下这种: http://www.xxx.com/xxx.do?callback=info 参数名也常见有cb jsoncb call jsoncall cba ...
- Servlet发送邮件遇到的问题SMTPSendFailedException 554
接到通知,一个接收用户请求的邮箱有段时间收不到邮件了.当时想着这么简单的功能,就没有加上日志记录.重写程序后,日志记下的报错是:SMTP的SMTPSendFailedException 554 co ...
- 转:Override vs Overload
重写(Override) 重写是子类对父类的允许访问的方法的实现过程进行重新编写, 返回值和形参都不能改变.即外壳不变,核心重写! 重写的好处在于子类可以根据需要,定义特定于自己的行为. 也就是说子类 ...