【NLP学习其五】模型保存与载入的注意事项(记问题No module named 'model')
这是一次由于路径问题(找不到模型)引出模型保存问题的记录
最近,我试着把使用GPU训练完成的模型部署至预发布环境时出现了一个错误,以下是log节选
unpickler.load() ModuleNotFoundError: No module named 'model'
问题分析
当时我很奇怪,因为这个模型在本地环境测试已经通过了
从错误本身来看,程序是没有找到我们的模型
那么这里可能是路径设置有误
这是训练结束用于本地测试的目录树
解决办法
我添加了一个与src并行的包test用于复现问题
到这里,问题很明确了,我在test中使用src的模型,需要指定src的路径(也就是src的绝对路径)
于是我将路径替换为绝对路径(如下)
然后运行程序依旧报出相同的错误(我c了都)
问题分析(再次)
经过高强度互联网搜索,查到GitHub上有人发现相同错误(https://github.com/pytorch/pytorch/issues/18325)
问题指向pytorch的模型保存函数
官方tutorials:https://pytorch.org/tutorials/beginner/saving_loading_models.html
众所周知(并不),pytorch提供两种模型保存的方式,一种是仅保存模型训练时产生的参数(当这个参数满足你的需求时),另一种则比较简单粗暴,直接把所有东西保存(包括一切涉及模型的数据)
说的具体一点就是下面这样
#方法一:
torch.save(model.state_dict(), model_name) #保存模型,但只是把训练产生的模型参数存入一个字典
#方法二:
torch.save(model, model_name) #保存模型,提供要保存的模型和模型的名字就可以将其整个保存
到这里你应该发现问题的关键了
我是用方法二来保存模型的,而在这个过程中,函数会保存一切,包括训练时模型所在文件夹的位置关系,因此当我想要在别的地方使用这个模型时,由于当前路径与模型保存的路径不同,程序自然无法找到模型进而报错。
这是我在训练完之后立刻在本地测试模型不能察觉的问题,因为那时候路径还与保存的路径一致。
解决办法
知道是保存的锅就好办了,修改保存方式重新训练呗
在你原来保存模型的地方用方法一的代码替换即可
由于保存方式的变化,我们在载入模型时的方法也要做出相应的变化
#载入模型(方法二)
mymodel_path = "G:\\src\\models\\test"
model = torch.load(mymodel_path)
#载入模型(方法一)
mymodel_path = "G:\\src\\models\\test"
m_state_dict = torch.load(mymodel_path)
model = BiLSTM_CRF( #仅更新模型的参数
vocab_size=len(word_to_id),
tag_to_ix=tag_to_id,
embedding_dim=parameters["word_dim"],
hidden_dim=parameters["word_lstm_dim"],
use_gpu=use_gpu,
char_to_ix=char_to_id,
pre_word_embeds=word_embeds,
use_crf=parameters["crf"],
char_mode=parameters["char_mode"],
)
model.load_state_dict(m_state_dict)
这次程序可以正常运行
注:pytorch的官方指导建议使用字典的形式保存模型,从实践来看也确实如此,只保存模型参数让模型的接续训练成为可能(这个下次再谈)
【NLP学习其五】模型保存与载入的注意事项(记问题No module named 'model')的更多相关文章
- 『TensorFlow』模型保存和载入方法汇总
『TensorFlow』第七弹_保存&载入会话_霸王回马 一.TensorFlow常规模型加载方法 保存模型 tf.train.Saver()类,.save(sess, ckpt文件目录)方法 ...
- Tensorflow模型保存与载入
import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data #载入数据集 mnist = in ...
- Xgboost 模型保存和载入()
https://blog.csdn.net/u012884015/article/details/78653178 xgb_model.get_booster().save_model('xgb.mo ...
- Tensorflow模型保存与加载
在使用Tensorflow时,我们经常要将以训练好的模型保存到本地或者使用别人已训练好的模型,因此,作此笔记记录下来. TensorFlow通过tf.train.Saver类实现神经网络模型的保存和提 ...
- TensorFlow 模型的保存与载入
参考学习博客: # https://www.cnblogs.com/felixwang2/p/9190692.html 一.模型保存 # https://www.cnblogs.com/felixwa ...
- (原+译)pytorch中保存和载入模型
转载请注明出处: http://www.cnblogs.com/darkknightzh/p/8108466.html 参考网址: http://pytorch.org/docs/master/not ...
- TF-IDF与主题模型 - NLP学习(3-2)
分词(Tokenization) - NLP学习(1) N-grams模型.停顿词(stopwords)和标准化处理 - NLP学习(2) 文本向量化及词袋模型 - NLP学习(3-1) 在上一篇博文 ...
- TensorFlow 模型保存/载入
我们在上线使用一个算法模型的时候,首先必须将已经训练好的模型保存下来.tensorflow保存模型的方式与sklearn不太一样,sklearn很直接,一个sklearn.externals.jobl ...
- Tensorflow学习笔记----模型的保存和读取(4)
一.模型的保存:tf.train.Saver类中的save TensorFlow提供了一个一个API来保存和还原一个模型,即tf.train.Saver类.以下代码为保存TensorFlow计算图的方 ...
随机推荐
- 99、centos下安装teamviewer
99.1.teamviewer简介: TeamViewer是一个能在任何防火墙和NAT代理的后台用于远程控制的应用程序,桌面共享和文件传输的简单且快速的解决方案. 为了连接到另一台计算机,只需要在两台 ...
- MindSpore模型精度调优实战:如何更快定位精度问题
摘要:为大家梳理了针对常见精度问题的调试调优指南,将以"MindSpore模型精度调优实战"系列文章的形式分享出来,帮助大家轻松定位精度问题,快速优化模型精度. 本文分享自华为云社 ...
- hdu 6030 矩阵快速幂
大致题意: 一条长度为n的项链,由红色珠子和蓝色珠子(分别用1和0表示)组成,在连续的素数子段中,红色珠子的个数不能少于蓝色珠子.问组成这个项链有多少种方案,求方案数模1000000007 分析: 首 ...
- redis集群搭建中遇到的一些问题
redis单机模式启动后,修改完配置文件,使用以下命令创建redis集群: sudo ./src/redis-trib.rb create --replicas 1 ip1:6379 ip2:6379 ...
- 第二届 BJD wp(reverse和crypto)
re 1.第一题拖入ida,flag就是直接明文摆着 2.第二题是8086的程序,拖入ida,发现有个jmp无限跳转,可能是段寄存器被修改了,ida无法将后面的汇编识别出来,所以后面才有很多无效数据, ...
- buu crackRTF
一.无壳,拖入ida,静态编译一下 整体逻辑还是很清晰,这里我的盲区是那个加密函数,是md5,没看出来,内存地址看错了,之前用黑盒动调一下,发现猜不出来,看某位wp发现有的老哥,直接sha1爆破的,狠 ...
- 循序渐进BootstrapVue,开发公司门户网站(6)--- 门户网站后端内容管理
我们在做门户网站的时候,如果网站的内容可以动态从后端进行管理,那么调整网站内容就非常方便,有时候如一些公司新闻.产品信息.轮播广告信息等都需要动态调整的,有一个方便的后端内容管理是非常方便的.本篇随笔 ...
- 必须要了解的Linux基本操作
Linux常用的基础操作 1.命令行提示字符 2.切换用户 3.查看当前主机的完整名称 4.临时设置主机 ...
- python 动态指定header获取网页源代码的函数
import random import requests def get_htmla(url): aui=0 while aui==0: try: header={'User-Agent':'Moz ...
- C语言:printf("")标志详解
%d 十进制整数 %ld 十进制长整型 %hd 十进制短整型 %o 八进制整数 %X %x 十六进制 整数 %f 以十进制形式输出 float 类型: %lf 以十进制形式输出 double 类 ...