一、Tensorflow基本概念

  1、使用图(graphs)来表示计算任务,用于搭建神经网络的计算过程,但其只搭建网络,不计算

  2、在被称之为会话(Session)的上下文(context)中执行图

  3、使用张量(tensor)表示数据,用“阶”表示张量的维度。关于这一点需要展开一下

0阶张量称为标量,表示单独的一个数

1阶张量称为向量, 表示一个一维数组

2阶张量称为矩阵,表示一个二维数组

……

张量是几阶的可以通过张量右边的方括号数来判断。例如 t = [ [ [    ] ] ],显然这个为3阶。

  4、通过变量(Variable)维护状态

  5、使用feed和fetch可以为任意的操作赋值或者从其中获取数据

  Tensorflow是一个编程系统,使用图(graphs)来表示计算任务,图(graphs)中的节点称之为op(operation),一个op获得0个或者多个Tensor,执行计算,产生0个或多个Tensor,Tensor看作是一个n维的数组或列表。图必须在会话(Session)里被启动。

二、tensorflow基本框架知识

1、会话

 import tensorflow as tf     # 简写方便一点

 # 创建两个常量(constant)
m1=tf.constant([[3,3]]) #一行两列的矩阵,这里是矩阵乘法,所以是二维数组,注意书写格式以及矩阵乘法规则
m2=tf.constant([[2],[3]]) #两行一列的矩阵 # 创建一个矩阵乘法(matmul)的op
product=tf.matmul(m1,m2)
print(product)

  运行会得到显示结果,其中MatMul为节点名,0代表第0个输出;shape是维度,(1,1)代表一行一列的张量,长度为1;dtype指数据类型为整型。

Tensor("MatMul:0", shape=(1, 1), dtype=int32)

  结果并不是想象中的是一个具体数字,而是一个Tensor,这是因为之前提到过 图必须在会话中运行,现在我们并未使用会话,所以只能得到一个Tensor。

  定义会话有两种方法,一般使用第二种。

 # method 1
sess=tf.Session() # 将Session简写为sess
result=sess.run(product) # 调用run方法执行图,这个触发了三个op(操作),两个常量的建立,矩阵的乘法
print(result)
sess.close() # 关闭会话
  # method 2
with tf.Session() as sess: # Session()后面的()因为代码提示里没有,所以很容易丢
result=sess.run(product)
print(result) # with as的这种结构会自动关闭会话

运行显示结果为

[[15]]

注意:Session() 经常会写错,大小写问题和括号问题,都是典型错误,多加练习

2、变量

上文常量使用tf.constant()表示,变量是用tf.Variable()表示

 import tensorflow as tf

 x=tf.Variable([1,2])    # 定义一个变量,这里是张量的加减法,所以一维数组即可
a=tf.constant([3,3]) # 定义一个常量 sub=tf.subtract(x,a) # 增加一个减法op
add=tf.add(x,sub) # 增加一个加法op init=tf.global_variables_initializer() # 在tensorflow中使用变量要初始化,此条语句也可以初始化多个变量,这句代码提示没有(),多加练习 with tf.Session() as sess:
sess.run(init) # 变量初始化,也要放在会话中,才能执行
print(sess.run(sub))
print(sess.run(add))

  运行将得到结果

[-2 -1]
[-1 1]

  上述代码展示了变量的定义和初始化,但还没有体现变量的本质,下面一段代码实现变量a进行5次+1的操作

值得一提的是,在打印常量和变量时,不能像python中的直接print(a),而是也需要放在sess.run()中。

 a=tf.Variable(0,name='counter')        # 创建一个变量初始化为0,并命名为counter。(此段代码中命名无作用)
new_value = tf.add(a,1) # 创建一个加法op,作用是使state加1
update=tf.assign(a,new_value) # 此句话是赋值op,在tensorflow中,赋值也需要对应的op
init=tf.global_variables_initializer() # 变量初始化
with tf.Session() as sess:
sess.run(init)
print(sess.run(a))
for i in range(5):
sess.run(update)
print(sess.run(a))

  运行,显示结果为

0
1
2
3
4
5

注意:初始化时,pycharm会代码提示 tf.global_variables_initializer,但往往会把括号漏掉,需注意

常用的op现在除了加减乘除,还多了个assign()的赋值op

3、Fetch

  sess.run([fetch1,fetch2]) 进行多个op,注意格式

 import tensorflow as tf

 input1 = tf.constant(3.0)
input2 = tf.constant(2.0)
input3 = tf.constant(5.0) add = tf.add(input2,input3)
mul = tf.multiply(input1,add) with tf.Session() as sess:
result = sess.run([mul,add]) # 执行了两个op,要注意格式
print(result)

  运行,结果显示为

[21.0, 7.0]

  这里需要提一下tf.matmul()是用于矩阵乘法,tf.multiply是用于点乘。正如上面这段代码的multiply

4、placeholder占位

  定义变量时可先不输入具体数值,先占位,在会话中调用op时,再输入具体值。

import tensorflow as tf

input1 = tf.placeholder(tf.float32)      # 使用placeholder()占位,需要提供类型
input2 = tf.placeholder(tf.float32)
output = tf.multiply(input1,input2) with tf.Session() as sess:
print(sess.run(output,feed_dict={input1:8.0,input2:2.0})) # 以字典形式输入feed_dict

  运行,显示结果为

[ 16.]

占位多组数据以后再说在下一篇随笔会提到。

  以上就是一些比较基本的tensorflow概念的描述和代码实现。

   本人初学者,有错误欢迎指出。感谢。

Tensorflow学习:(一)tensorflow框架基本概念的更多相关文章

  1. tensorflow学习笔记----tensorflow在windows的安装及TensorBoard中mnist样例

    前言:                                                                                                 ...

  2. tensorflow 学习1——tensorflow 做线性回归

    . 首先 Numpy: Numpy是Python的科学计算库,提供矩阵运算. 想想list已经提供了矩阵的形式,为啥要用Numpy,因为numpy提供了更多的函数. 使用numpy,首先要导入nump ...

  3. tensorflow 学习教程

    tensorflow 学习手册 tensorflow 学习手册1:https://cloud.tencent.com/developer/section/1475687 tensorflow 学习手册 ...

  4. TensorFlow学习笔记(1)—— 基本概念与框架

    入门框架时的常见问题 学习框架的原因? 方便.易用 学习框架的哪些知识点? 掌握一个项目的基本流程,就知道需要学习哪些知识点了 迅速学习框架的方法 根据项目每块流程的需要针对性的学 可以看官方的入门教 ...

  5. tensorflow学习笔记——常见概念的整理

    TensorFlow的名字中已经说明了它最重要的两个概念——Tensor和Flow.Tensor就是张量,张量这个概念在数学或者物理学中可以有不同的解释,但是这里我们不强调它本身的含义.在Tensor ...

  6. tensorflow学习笔记——多线程输入数据处理框架

    之前我们学习使用TensorFlow对图像数据进行预处理的方法.虽然使用这些图像数据预处理的方法可以减少无关因素对图像识别模型效果的影响,但这些复杂的预处理过程也会减慢整个训练过程.为了避免图像预处理 ...

  7. 深度学习调用TensorFlow、PyTorch等框架

    深度学习调用TensorFlow.PyTorch等框架 一.开发目标目标 提供统一接口的库,它可以从C++和Python中的多个框架中运行深度学习模型.欧米诺使研究人员能够在自己选择的框架内轻松建立模 ...

  8. 对比深度学习十大框架:TensorFlow 并非最好?

    http://www.oschina.net/news/80593/deep-learning-frameworks-a-review-before-finishing-2016 TensorFlow ...

  9. 截图:【炼数成金】深度学习框架Tensorflow学习与应用

    创建图.启动图 Shift+Tab Tab 变量介绍: F etch Feed 简单的模型构造 :线性回归 MNIST数据集 Softmax函数 非线性回归神经网络   MINIST数据集分类器简单版 ...

  10. 作为深度学习最强框架的TensorFlow如何进行时序预测!(转)

    作为深度学习最强框架的TensorFlow如何进行时序预测! BigQuant 2 个月前 摘要: 2017年深度学习框架关注度排名tensorflow以绝对的优势占领榜首,本文通过一个小例子介绍了T ...

随机推荐

  1. UNIX环境高级编程 第5章 标准I/O库

    本章是关于C语言标准I/O库的,之所以在UNIX类系统的编程中会介绍C语言标准库,主要是因为UNIX和C之间具有密不可分的关系.由于UNIX系统存在很多实现,而每个实现都有自己的标准I/O库,为了统一 ...

  2. 20155303 2016-2017-2 《Java程序设计》第九周学习总结

    20155303 2016-2017-2 <Java程序设计>第九周学习总结 目录 学习内容总结(Linux命令) 教材学习中的问题和解决过程 代码调试中的问题和解决过程 代码托管 上周考 ...

  3. UBIFS文件系统简介 与 利用mkfs.ubifs和ubinize两个工具制作UBI镜像 (完整理解版本)

    UBI文件系统简介 在linux-2.6.27以前,谈到Flash文件系统,大家很多时候多会想到cramfs.jffs2.yaffs2等文件系统. 它们也都是基于文件系 统+mtd+flash设备的架 ...

  4. MySQL增量备份与恢复实例【转】

    小量的数据库可以每天进行完整备份,因为这也用不了多少时间,但当数据库很大时,就不太可能每天进行一次完整备份了,这时候就可以使用增量备份.增量备份的原理就是使用了mysql的binlog日志.本次操作的 ...

  5. Codeforces 859E Desk Disorder 并查集找环,乘法原理

    题目链接:http://codeforces.com/contest/859/problem/E 题意:有N个人.2N个座位.现在告诉你这N个人它们现在的座位.以及它们想去的座位.每个人可以去它们想去 ...

  6. spark和hadoop比较

    来源知乎 计算模型:hadoop-MapReduce,Spark-DAG(有向无环图)评注:经常有人说Spark就是内存版的MapReduce,实际上不是的.Spark使用的DAG计算模型可以有效的减 ...

  7. 读书笔记--C陷阱与缺陷(七)

    第七章 1.null指针并不指向任何对象,所以只用于赋值和比较运算,其他使用目的都是非法的. 误用null指针的后果是未定义的,根据编译器各异. 有的编译器对内存位置0只读,有的可读写. 书中给出了一 ...

  8. python图片处理(一)

    在matlab中有相应的图像进行二值化处理,并且标记连通区域 L = bwlabel(BW,n) 返回一个和BW大小相同的L矩阵,包含了标记连BW中每个连通区域的类别标签,标签的值是1.2.num(连 ...

  9. (二)HtmlUnit 使用

    第一节: htmlunit 模拟浏览器请求 第二节: htmlunit 获取指定元素 第三节: htmlunit 使用代理 IP 第四节: htmlunit 取消 css,javascript 支持 ...

  10. class getConstructor newinstance

    public static void main(String[] args) throws Exception{ /**获取String对象指定的构造方法(通过方法的参数类型,传递 参数的 Class ...