一、Tensorflow基本概念

  1、使用图(graphs)来表示计算任务,用于搭建神经网络的计算过程,但其只搭建网络,不计算

  2、在被称之为会话(Session)的上下文(context)中执行图

  3、使用张量(tensor)表示数据,用“阶”表示张量的维度。关于这一点需要展开一下

0阶张量称为标量,表示单独的一个数

1阶张量称为向量, 表示一个一维数组

2阶张量称为矩阵,表示一个二维数组

……

张量是几阶的可以通过张量右边的方括号数来判断。例如 t = [ [ [    ] ] ],显然这个为3阶。

  4、通过变量(Variable)维护状态

  5、使用feed和fetch可以为任意的操作赋值或者从其中获取数据

  Tensorflow是一个编程系统,使用图(graphs)来表示计算任务,图(graphs)中的节点称之为op(operation),一个op获得0个或者多个Tensor,执行计算,产生0个或多个Tensor,Tensor看作是一个n维的数组或列表。图必须在会话(Session)里被启动。

二、tensorflow基本框架知识

1、会话

 import tensorflow as tf     # 简写方便一点

 # 创建两个常量(constant)
m1=tf.constant([[3,3]]) #一行两列的矩阵,这里是矩阵乘法,所以是二维数组,注意书写格式以及矩阵乘法规则
m2=tf.constant([[2],[3]]) #两行一列的矩阵 # 创建一个矩阵乘法(matmul)的op
product=tf.matmul(m1,m2)
print(product)

  运行会得到显示结果,其中MatMul为节点名,0代表第0个输出;shape是维度,(1,1)代表一行一列的张量,长度为1;dtype指数据类型为整型。

Tensor("MatMul:0", shape=(1, 1), dtype=int32)

  结果并不是想象中的是一个具体数字,而是一个Tensor,这是因为之前提到过 图必须在会话中运行,现在我们并未使用会话,所以只能得到一个Tensor。

  定义会话有两种方法,一般使用第二种。

 # method 1
sess=tf.Session() # 将Session简写为sess
result=sess.run(product) # 调用run方法执行图,这个触发了三个op(操作),两个常量的建立,矩阵的乘法
print(result)
sess.close() # 关闭会话
  # method 2
with tf.Session() as sess: # Session()后面的()因为代码提示里没有,所以很容易丢
result=sess.run(product)
print(result) # with as的这种结构会自动关闭会话

运行显示结果为

[[15]]

注意:Session() 经常会写错,大小写问题和括号问题,都是典型错误,多加练习

2、变量

上文常量使用tf.constant()表示,变量是用tf.Variable()表示

 import tensorflow as tf

 x=tf.Variable([1,2])    # 定义一个变量,这里是张量的加减法,所以一维数组即可
a=tf.constant([3,3]) # 定义一个常量 sub=tf.subtract(x,a) # 增加一个减法op
add=tf.add(x,sub) # 增加一个加法op init=tf.global_variables_initializer() # 在tensorflow中使用变量要初始化,此条语句也可以初始化多个变量,这句代码提示没有(),多加练习 with tf.Session() as sess:
sess.run(init) # 变量初始化,也要放在会话中,才能执行
print(sess.run(sub))
print(sess.run(add))

  运行将得到结果

[-2 -1]
[-1 1]

  上述代码展示了变量的定义和初始化,但还没有体现变量的本质,下面一段代码实现变量a进行5次+1的操作

值得一提的是,在打印常量和变量时,不能像python中的直接print(a),而是也需要放在sess.run()中。

 a=tf.Variable(0,name='counter')        # 创建一个变量初始化为0,并命名为counter。(此段代码中命名无作用)
new_value = tf.add(a,1) # 创建一个加法op,作用是使state加1
update=tf.assign(a,new_value) # 此句话是赋值op,在tensorflow中,赋值也需要对应的op
init=tf.global_variables_initializer() # 变量初始化
with tf.Session() as sess:
sess.run(init)
print(sess.run(a))
for i in range(5):
sess.run(update)
print(sess.run(a))

  运行,显示结果为

0
1
2
3
4
5

注意:初始化时,pycharm会代码提示 tf.global_variables_initializer,但往往会把括号漏掉,需注意

常用的op现在除了加减乘除,还多了个assign()的赋值op

3、Fetch

  sess.run([fetch1,fetch2]) 进行多个op,注意格式

 import tensorflow as tf

 input1 = tf.constant(3.0)
input2 = tf.constant(2.0)
input3 = tf.constant(5.0) add = tf.add(input2,input3)
mul = tf.multiply(input1,add) with tf.Session() as sess:
result = sess.run([mul,add]) # 执行了两个op,要注意格式
print(result)

  运行,结果显示为

[21.0, 7.0]

  这里需要提一下tf.matmul()是用于矩阵乘法,tf.multiply是用于点乘。正如上面这段代码的multiply

4、placeholder占位

  定义变量时可先不输入具体数值,先占位,在会话中调用op时,再输入具体值。

import tensorflow as tf

input1 = tf.placeholder(tf.float32)      # 使用placeholder()占位,需要提供类型
input2 = tf.placeholder(tf.float32)
output = tf.multiply(input1,input2) with tf.Session() as sess:
print(sess.run(output,feed_dict={input1:8.0,input2:2.0})) # 以字典形式输入feed_dict

  运行,显示结果为

[ 16.]

占位多组数据以后再说在下一篇随笔会提到。

  以上就是一些比较基本的tensorflow概念的描述和代码实现。

   本人初学者,有错误欢迎指出。感谢。

Tensorflow学习:(一)tensorflow框架基本概念的更多相关文章

  1. tensorflow学习笔记----tensorflow在windows的安装及TensorBoard中mnist样例

    前言:                                                                                                 ...

  2. tensorflow 学习1——tensorflow 做线性回归

    . 首先 Numpy: Numpy是Python的科学计算库,提供矩阵运算. 想想list已经提供了矩阵的形式,为啥要用Numpy,因为numpy提供了更多的函数. 使用numpy,首先要导入nump ...

  3. tensorflow 学习教程

    tensorflow 学习手册 tensorflow 学习手册1:https://cloud.tencent.com/developer/section/1475687 tensorflow 学习手册 ...

  4. TensorFlow学习笔记(1)—— 基本概念与框架

    入门框架时的常见问题 学习框架的原因? 方便.易用 学习框架的哪些知识点? 掌握一个项目的基本流程,就知道需要学习哪些知识点了 迅速学习框架的方法 根据项目每块流程的需要针对性的学 可以看官方的入门教 ...

  5. tensorflow学习笔记——常见概念的整理

    TensorFlow的名字中已经说明了它最重要的两个概念——Tensor和Flow.Tensor就是张量,张量这个概念在数学或者物理学中可以有不同的解释,但是这里我们不强调它本身的含义.在Tensor ...

  6. tensorflow学习笔记——多线程输入数据处理框架

    之前我们学习使用TensorFlow对图像数据进行预处理的方法.虽然使用这些图像数据预处理的方法可以减少无关因素对图像识别模型效果的影响,但这些复杂的预处理过程也会减慢整个训练过程.为了避免图像预处理 ...

  7. 深度学习调用TensorFlow、PyTorch等框架

    深度学习调用TensorFlow.PyTorch等框架 一.开发目标目标 提供统一接口的库,它可以从C++和Python中的多个框架中运行深度学习模型.欧米诺使研究人员能够在自己选择的框架内轻松建立模 ...

  8. 对比深度学习十大框架:TensorFlow 并非最好?

    http://www.oschina.net/news/80593/deep-learning-frameworks-a-review-before-finishing-2016 TensorFlow ...

  9. 截图:【炼数成金】深度学习框架Tensorflow学习与应用

    创建图.启动图 Shift+Tab Tab 变量介绍: F etch Feed 简单的模型构造 :线性回归 MNIST数据集 Softmax函数 非线性回归神经网络   MINIST数据集分类器简单版 ...

  10. 作为深度学习最强框架的TensorFlow如何进行时序预测!(转)

    作为深度学习最强框架的TensorFlow如何进行时序预测! BigQuant 2 个月前 摘要: 2017年深度学习框架关注度排名tensorflow以绝对的优势占领榜首,本文通过一个小例子介绍了T ...

随机推荐

  1. Elasticsearch技术解析与实战(二)文档的CRUD操作

    启动Elasticsearch和kibana 访问Elasticsearch:http://localhost:9200/?pretty 访问kibana:http://localhost:5601 ...

  2. node的“宏任务(macro-task)”和“微任务(micro-task)”机制

    macrotask 和 microtask 表示异步任务的两种分类.在挂起任务时,JS 引擎会将所有任务按照类别分到这两个队列中,首先在 macrotask 的队列(这个队列也被叫做 task que ...

  3. 谈谈Flash图表中数据的采集

    一般来说flash中的数据是不能被现有技术很容易采集到的,但是也不能谈flash色变,要具体问题具体分析,有些flash是可以通过一些分析发现背后的数据.然后采集就变得很容易了. 具体案例:搜房房价走 ...

  4. springboot+mybatis使用PageHelper分页

    项目结构和spring搭建mybatis请参考springboot整合mybatis.在这个基础上配置分页. 一:导入PageHelper依赖 <dependency> <group ...

  5. 点击搜索条件提交form表单

    思路:点击搜索,javascript跳转提交方法,提交整个表单. //组员下拉框选择分组事件 $('#s-member').change(function(){ $('#logForm').submi ...

  6. Python文件操作-文件的增删改查

    需求:对文件进行增删改查 由于时间原因,本次代码没有增加任何注释,如有疑问,请联系编辑者:闫龙 其实我也是醉了,看着这些个代码,我脑袋也特么大了,没办法,大神说了,不让用新知识,只可以使用学过的,所以 ...

  7. hdu 1004 Let the Balloon Rise(字典树)

    题目链接:http://acm.hdu.edu.cn/showproblem.php?pid=1004 Let the Balloon Rise Time Limit: 2000/1000 MS (J ...

  8. webSQL 增删改查

    webSQL 增删改查  转载于:https://www.cnblogs.com/liuhao-web/p/7866032.html /** *数据库操作辅助类,定义对象.数据操作方法都在这里定义 * ...

  9. Linux路径名和文件名最大长度限制

    UNIX标准对路径名和文件名最大长度限制做出了说明,但其上限值在实际应用长过小,Linux在具体实现时提升了该上限,该限制在Linux的 /usr/include/linux/limits.h 中做出 ...

  10. Bresenham直线算法与画圆算法

    在我们内部开发使用的一个工具中,我们需要几乎从 0 开始实现一个高效的二维图像渲染引擎.比较幸运的是,我们只需要画直线.圆以及矩形,其中比较复杂的是画直线和圆.画直线和圆已经有非常多的成熟的算法了,我 ...