TensorFlow 模型文件
在这篇 TensorFlow 教程中,我们将学习如下内容:
- TensorFlow 模型文件是怎么样的?
- 如何保存一个 TensorFlow 模型?
- 如何恢复一个 TensorFlow 模型?
- 如何使用一个训练好的模型进行修改和微调?
1. TensorFlow 模型文件
在你训练完一个神经网络之后,你可能需要将这个模型保存下来,在后续实验中使用或者进行生产部署。那么,TensorFlow 模型文件长什么样呢?TensorFlow 模型主要包含我们已经训练好的网络设计(计算图)和网络参数。因此,TensorFlow 模型主要有两个文件:
元图(meta graph)
这是一个保存完整的 TensorFlow 图的协议缓存区,即所有的变量,操作,集合等等。该文件具有.meta扩展名。检查点文件(checkpoint file)
这是一个二进制文件,其中包含所有的权重,偏差,梯度和其他所有保存的值。这个文件的扩展名是.ckpt。然而,TensorFlow 从版本 0.11 开始已经不再使用一个.ckpt文件来表示了,而是采用两个文件,如下:
mymodel.data-00000-of-00001
mymodel.index
.data 文件是包含我们训练变量的文件。除此之外,TensorFlow 还有一个名为 checkpoint 的文件,它用来保存最新检查点的记录。
所以,总而言之,版本大于 0.11 的 TensorFlow 模型文件如下所示:
my_test_model-1000.index
my_test_model-1000.meta
my_test_model-1000.data-00000-of-00001
checkpoin
2. 保存一个 TensorFlow 模型
假设,你正在使用卷积神经网络训练一个图像分类模型。一个传统做法是,你一直在关注损失值和正确率这两个指标,一旦你发现网络收敛了,那么你就会手动停止训练,或者你会运行固定的训练次数然后结束训练。在完成训练之后,我们希望将所有的变量和计算图都保存起来,以便于未来使用。所以,在 TensorFlow 中,我们可以使用 tf.train.Saver() 实例来保存所有的参数和计算图。
saver = tf.train.Saver()
- 1
请记住,TensorFlow 变量只在会话(session)中存在。因此,你必须在会话中,调用刚刚创建好的 save 方法,将模型保存起来。
saver.save(sess, 'my-test-model')
- 1
在这里, sess 是一个会话对象,而 my-test-model 就是你给模型起的名字。接下来,让我们看一个完整的例子:
#!/use/bin/env python
# -*- coding: utf-8 -*-
import tensorflow as tf
w1 = tf.Variable(tf.random_normal(shape=[2]), name='w1')
w2 = tf.Variable(tf.random_normal(shape=[5]), name='w2')
saver = tf.train.Saver(www.feifanyule.cn/)
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
saver.save(sess, './model/my_test_model')
运行上面这个代码,我们可以得到如下的模型文件结构:
model/
├── checkpoint
├── my_test_model.data-00000-of-00001
├── my_test_model.index
└── my_test_model.meta
如果你想在 1000 次迭代之后再保存模型,那么我们可以通过传递步数来调用 save ,如下:
saver.save(sess, 'my_test_model', global_step=1000)
- 1
这个代码会在模型文件之后添加上 -1000 ,如下:
my_test_model-1000.index
my_test_model-1000.meta
my_test_model-1000.data-00000-of-00001
checkpoint
比如说,在训练的时候,我们每 1000 次保存一下模型,所以 .meta 文件只会在第一次保存的时候创建(也就是第 1000 次的时候),我们不需要在每次保存文件的时候再去创建 .meta 文件。我们只需要保存模型进一步迭代的数据,因为模型的计算图不会再变化。因此,当我们不想要去保存计算图的时候,我们可以使用如下命令:
saver.save(sess, 'my-model', global_step=step,write_meta_graph=False)
如果你只想保存最新的 4 个模型参数,并且希望在训练期间每隔 2 小时保存一个模型,那么我们可以使用 max_to_keep参数和 keep_checkpoint_every_n_hours 参数。
# saves a model every 2 hours and maximum 4 latest models are saved.
saver = tf.train.Saver(max_to_keep=4, keep_checkpoint_every_n_hours=2)
请注意,如果我们没有在 tf.train.Saver() 中指定任何东西,那么它会保存模型所有的变量。如果我们不想保存所有的变量,只想保存其中的某些变量,那么应该怎么操作呢?我们可以指定我们想要保存的变量。在创建 tf.train.Saver()实例时,我们将需要保存的变量通过列表或者字典的形式传入进去。让我们来看一个例子:
#!/use/bin/env python
# -*- coding: utf-8 -*-
import tensorflow as tf
w1 = tf.Variable(tf.random_normal(shape=[2]), name='w1')
w2 = tf.Variable(tf.random_normal(shape=[5]), name='w2')
saver = tf.train.Saver([w1, w2])
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
saver.save(sess, './model/my_model', global_step=1000
这个操作可以用来帮助我们去保存 TensorFlow 图中某些特定的部分。
3. 导入一个预训练的模型
如果你想使用别人的预训练好的模型进行微调,那么你需要做两件事:
- 构建网络结构
你可以通过编写 Python 代码来重新构建整个网络,手动来创建网络中的每一个层。但是,因为我们已经将网络保存在.meta文件中了,我们可以直接使用tf.train.import()函数来导入这个模型,如下所示:saver = tf.train.import_meta_graph('my_test_model-1000.meta')。
请记住,import_meta_graph 将 .meta 文件中定义的计算图数据直接附加到我们定义的当前图中。因此,这个操作会帮助我们创建计算图,但是我们仍然需要去加载计算图上面所有已经训练好的权重参数。
- 加载参数
我们可以通过调用这个tf.train.Saver()类来恢复我们网络的参数。
with tf.Session() as sess:
new_saver = tf.train.import_meta_graph('my_test_model-1000.meta')
new_saver.restore(sess, tf.train.latest_checkpoint('./'))
导入之后,类似 w1 和 w2 这样的张量值就可以被访问了。
with tf.Session() as sess:
saver = tf.train.import_meta_graph('my-model-1000.meta')
saver.restore(sess,tf.train.latest_checkpoint('./'))
print(sess.run('w1:0'))
所以,现在你已经了解了 TensorFlow 模型的保存和载入。在下面一节中,我将给你介绍在实际的工作中是如何来加载一个预训练的模型。
4. 使用恢复的模型
现在,你已经了解了如何去保存和载入一个 TensorFlow 模型,接下来让我们学习一个实际中可以使用的开发方式,用来恢复任何预先训练好的模型,并将其用于模型预测,模型微调或者进一步模型训练。无论你什么时候使用 TensorFlow ,你都需要定义一个计算图来训练数据,学习一些超参数(比如,学习率,步长等等)。使用占位符来输入训练数据和超参数是一种标准的做法。接下来,让我们使用占位符来构建一个小的网络并且保存这个网络,请注意,当我们保存网络的时候,占位符中的值是不进行保存的。
#!/use/bin/env python
# -*- coding: utf-8 -*-
import tensorflow as tf
w1 = tf.placeholder("float",www.vboyule.cn name="w1")
w2 = tf.placeholder("float", name="w2www.baohuayule.net ")
b1= tf.Variable(2.0,name="bias")
#Define a test operation that we will restore
w3 = tf.add(w1,w2)
w4 = tf.multiply(w3,b1,name="op_to_restore")
#Create a saver object which will save all the variables
saver = tf.train.Saver(www.tianhengyl1.com)
with tf.Session() as sess:
sess.run(tf.global_variables_initializer(www.thd178.com))
print(sess.run(w4,feed_dict ={w1:4,w2:8}))
saver.save(sess, 'my_test_model',global_step=1000)
现在,当我们想要去载入这个模型时,我们不仅需要恢复所有的计算图和参数权重,而且还要准备一个新的 feed_dict,用来将新的训练数据送到网络中进行训练。我们可以通过 graph.get_tensor_by_name() 方法来获得对这些保存的操作和占位符变量的引用。
#How to access saved variable/Tensor/placeholders
w1 = graph.get_tensor_by_name("www.120xh.cn w1:0")
## How to access saved operation
op_to_restore = graph.get_tensor_by_name("op_to_restore:0"
如果我们只想用不同的数据来运行相同的网络,那么我们只需要通过 feed_dict 来给网络传递数据就可以了。
with tf.Session() as sess:
saver = tf.train.import_meta_graph(www.qinlinyule.cn 'my_test_model-1000.meta')
saver.restore(sess,tf.www.089188.cn train.latest_checkpoint('./'))
graph = tf.get_default_graph()
w1 = graph.get_tensor_by_name("w1:0")
w2 = graph.get_tensor_by_name("w2:0")
feed_dict ={w1:13.0,w2:17.0}
op_to_restore = graph.get_tensor_by_name("op_to_restore:0")
print(sess.run(op_to_restore,feed_dict))
如果你想在原来的计算图基础上添加更多的操作和图层,并且进行训练。那么你可以按照如下操作来编写:
import tensorflow as tf
with tf.Session() as sess:
saver = tf.train.import_meta_graph('my_test_model-1000.meta')
saver.restore(sess,tf.train.latest_checkpoint('./'))
graph = tf.get_default_graph()
w1 = graph.get_tensor_by_name("w1:0")
w2 = graph.get_tensor_by_name("w2:0")
feed_dict ={w1:13.0,w2:17.0}
op_to_restore = graph.get_tensor_by_name("op_to_restore:0")
# 添加新的操作
add_on_op = tf.multiply(op_to_restore, 2.)
print(sess.run(add_on_op,feed_dict))
但是,我们可以恢复原图中的一部分,然后自己再添加一部分图,重新组成一张新的计算图来记性微调计算吗?当然可以,我们可以通过 graph.get_tensor_by_name() 来访问相应的操作,并且在其上构建计算图。我们来举一个真实的例子,我们通过 .meta 文件来导入一个 VGG 预训练好的模型,然后把最后的输出改为二分类,最后在新数据上面对这个模型进行微调。
TensorFlow 模型文件的更多相关文章
- AI tensorflow模型文件
tensorflow模型可以利用tf.train.Saver类保存成文件.一个模型包含下面四个文件. meta文件 存储计算图的protobuf. data-00000-of-00001文件和inde ...
- 转 tensorflow模型保存 与 加载
使用tensorflow过程中,训练结束后我们需要用到模型文件.有时候,我们可能也需要用到别人训练好的模型,并在这个基础上再次训练.这时候我们需要掌握如何操作这些模型数据.看完本文,相信你一定会有收获 ...
- tensorflow学习笔记2:c++程序静态链接tensorflow库加载模型文件
首先需要搞定tensorflow c++库,搜了一遍没有找到现成的包,于是下载tensorflow的源码开始编译: tensorflow的contrib中有一个makefile项目,极大的简化的接下来 ...
- tensorflow c++ API加载.pb模型文件并预测图片
tensorflow python创建模型,训练模型,得到.pb模型文件后,用c++ api进行预测 #include <iostream> #include <map> # ...
- 查看tensorflow pb模型文件的节点信息
查看tensorflow pb模型文件的节点信息: import tensorflow as tf with tf.Session() as sess: with open('./quantized_ ...
- tensorflow lite 之生成 tflite 模型文件
下载最新的的tensorflow源码. 1.配置 tflite 文件转换所需环境 安装 bazel 编译工具 https://docs.bazel.build/versions/master/inst ...
- [翻译] Tensorflow模型的保存与恢复
翻译自:http://cv-tricks.com/tensorflow-tutorial/save-restore-tensorflow-models-quick-complete-tutorial/ ...
- Tensorflow模型的格式
转载:https://cloud.tencent.com/developer/article/1009979 tensorflow模型的格式通常支持多种,主要有CheckPoint(*.ckpt).G ...
- 移动端目标识别(3)——使用TensorFlow Lite将tensorflow模型部署到移动端(ssd)之Running on mobile with TensorFlow Lite (写的很乱,回头更新一个简洁的版本)
承接移动端目标识别(2) 使用TensorFlow Lite在移动设备上运行 在本节中,我们将向您展示如何使用TensorFlow Lite获得更小的模型,并允许您利用针对移动设备优化 ...
随机推荐
- 最大公约数(gcd模板)
int gcd(int a,int b) { ) { int t=a%b; a=b; b=t; } return a; }
- BZOJ3884: 上帝与集合的正确用法(欧拉函数 扩展欧拉定理)
Time Limit: 5 Sec Memory Limit: 128 MBSubmit: 3860 Solved: 1751[Submit][Status][Discuss] Descripti ...
- elasticsearch 5.x 系列之二 线程池的设置
1,概述 每个Elasticsearch节点内部都维护着多个线程池,如index.search.get.bulk等,用户可以修改线程池的类型和大小,以及其他的比如reflesh, flush,warm ...
- python网络爬虫入门范例
python网络爬虫入门范例 Windows用户建议安装anaconda,因为有些套件难以安装. 安装使用pip install * 找出所有含有特定标签的HTML元素 找出含有特定CSS属性的元素 ...
- PAT (Basic Level) Practice 1021 个位数统计
个人练习 给定一个 k 位整数 N=dk−110k−1+⋯+d1101+d0 (0≤di≤9, i=0,⋯,k−1, dk−1>0),请编写程序统计每种 ...
- 笔记-scrapy-深入学习-sheduler
笔记-scrapy-深入学习-sheduler 1. scheduler.py source code:scrapy/core/scheduler.py: 1.1. 初始化的开始 在分 ...
- PHP.22-Smart模版
Smart模版 smarty是一个基于PHP开发的PHP模板引擎.它提供了逻辑与外在内容的分离,简单的讲,目的就是要使PHP程序员同美工分离,使用的程序员改变程序的逻辑内容不会影响到美工的页面设计,美 ...
- AOP的两种实现方式
技术交流群 :233513714 AOP,面向切面编程,可以通过预编译方式和运行期动态代理实现在不修改源代码的情况下给程序动态统一添加功能的一种技术. Aspect Oriented Progr ...
- CSS3 loading效果全
梦想天空 关注前端开发技术 ◆ 推动 HTML5 & CSS3 技术发展 ◆ 本博客全新站点:yyyweb.com 欢迎围观:) 首页 管理 订阅 网页设计 JavaScript jQuery ...
- 为 DirectAccess 设计 DNS 基础结构
TechNet 库Windows ServerWindows Server 2008 R2 und Windows Server 2008浏览 Windows Server 技术NetworkingD ...