这是一次由于路径问题(找不到模型)引出模型保存问题的记录

最近,我试着把使用GPU训练完成的模型部署至预发布环境时出现了一个错误,以下是log节选

unpickler.load() ModuleNotFoundError: No module named 'model'

问题分析

当时我很奇怪,因为这个模型在本地环境测试已经通过了

从错误本身来看,程序是没有找到我们的模型

那么这里可能是路径设置有误

这是训练结束用于本地测试的目录树

解决办法

我添加了一个与src并行的包test用于复现问题

到这里,问题很明确了,我在test中使用src的模型,需要指定src的路径(也就是src的绝对路径)

于是我将路径替换为绝对路径(如下)

然后运行程序依旧报出相同的错误(我c了都)

问题分析(再次)

经过高强度互联网搜索,查到GitHub上有人发现相同错误(https://github.com/pytorch/pytorch/issues/18325)

问题指向pytorch的模型保存函数

官方tutorials:https://pytorch.org/tutorials/beginner/saving_loading_models.html

众所周知(并不),pytorch提供两种模型保存的方式,一种是仅保存模型训练时产生的参数(当这个参数满足你的需求时),另一种则比较简单粗暴,直接把所有东西保存(包括一切涉及模型的数据

说的具体一点就是下面这样

#方法一:
torch.save(model.state_dict(), model_name) #保存模型,但只是把训练产生的模型参数存入一个字典 #方法二:
torch.save(model, model_name) #保存模型,提供要保存的模型和模型的名字就可以将其整个保存

到这里你应该发现问题的关键了

我是用方法二来保存模型的,而在这个过程中,函数会保存一切,包括训练时模型所在文件夹的位置关系,因此当我想要在别的地方使用这个模型时,由于当前路径与模型保存的路径不同,程序自然无法找到模型进而报错。

这是我在训练完之后立刻在本地测试模型不能察觉的问题,因为那时候路径还与保存的路径一致。

解决办法

知道是保存的锅就好办了,修改保存方式重新训练呗

在你原来保存模型的地方用方法一的代码替换即可

由于保存方式的变化,我们在载入模型时的方法也要做出相应的变化

#载入模型(方法二)
mymodel_path = "G:\\src\\models\\test"
model = torch.load(mymodel_path) #载入模型(方法一)
mymodel_path = "G:\\src\\models\\test"
m_state_dict = torch.load(mymodel_path)
model = BiLSTM_CRF( #仅更新模型的参数
vocab_size=len(word_to_id),
tag_to_ix=tag_to_id,
embedding_dim=parameters["word_dim"],
hidden_dim=parameters["word_lstm_dim"],
use_gpu=use_gpu,
char_to_ix=char_to_id,
pre_word_embeds=word_embeds,
use_crf=parameters["crf"],
char_mode=parameters["char_mode"],
)
model.load_state_dict(m_state_dict)

这次程序可以正常运行

注:pytorch的官方指导建议使用字典的形式保存模型,从实践来看也确实如此,只保存模型参数让模型的接续训练成为可能(这个下次再谈)

【NLP学习其五】模型保存与载入的注意事项(记问题No module named 'model')的更多相关文章

  1. 『TensorFlow』模型保存和载入方法汇总

    『TensorFlow』第七弹_保存&载入会话_霸王回马 一.TensorFlow常规模型加载方法 保存模型 tf.train.Saver()类,.save(sess, ckpt文件目录)方法 ...

  2. Tensorflow模型保存与载入

    import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data #载入数据集 mnist = in ...

  3. Xgboost 模型保存和载入()

    https://blog.csdn.net/u012884015/article/details/78653178 xgb_model.get_booster().save_model('xgb.mo ...

  4. Tensorflow模型保存与加载

    在使用Tensorflow时,我们经常要将以训练好的模型保存到本地或者使用别人已训练好的模型,因此,作此笔记记录下来. TensorFlow通过tf.train.Saver类实现神经网络模型的保存和提 ...

  5. TensorFlow 模型的保存与载入

    参考学习博客: # https://www.cnblogs.com/felixwang2/p/9190692.html 一.模型保存 # https://www.cnblogs.com/felixwa ...

  6. (原+译)pytorch中保存和载入模型

    转载请注明出处: http://www.cnblogs.com/darkknightzh/p/8108466.html 参考网址: http://pytorch.org/docs/master/not ...

  7. TF-IDF与主题模型 - NLP学习(3-2)

    分词(Tokenization) - NLP学习(1) N-grams模型.停顿词(stopwords)和标准化处理 - NLP学习(2) 文本向量化及词袋模型 - NLP学习(3-1) 在上一篇博文 ...

  8. TensorFlow 模型保存/载入

    我们在上线使用一个算法模型的时候,首先必须将已经训练好的模型保存下来.tensorflow保存模型的方式与sklearn不太一样,sklearn很直接,一个sklearn.externals.jobl ...

  9. Tensorflow学习笔记----模型的保存和读取(4)

    一.模型的保存:tf.train.Saver类中的save TensorFlow提供了一个一个API来保存和还原一个模型,即tf.train.Saver类.以下代码为保存TensorFlow计算图的方 ...

随机推荐

  1. LVS-NAT模式的实现

    一.架构如下: 二.安装过程 1.配置"互联网"服务器 1.1.修改服务器ip为192.168.10.101/24 [root@internet ~]# ip a 1: lo: & ...

  2. Linux基础 -02

    3.4 虚拟机快照技术 什么是快照 3.5 虚拟机克隆技术 什么是克隆 4.Bash Shell快速入门 4.1 什么是Bash Shell bash shell是一个命令解释器,主要负责用户程序与内 ...

  3. LRU工程实现源码(一):Redis 内存淘汰策略

    目录 内存淘汰是什么?什么时候内存淘汰 内存淘汰策略 Redis中的LRU淘汰算法 源码剖析 第一步:什么时候开始淘汰key 配置读取 检查时机 getMaxmemoryState 第二步:淘汰哪些k ...

  4. Java:Java的重写与重载区分

    最明显的区别为:重写只存在于子类与父类中,重载存在于一个类中. 具体区别如下: 一.重写(override) override是重写(覆盖)了一个方法,以实现不同的功能.一般是用于子类在继承父类时,重 ...

  5. python 两种排序方法 sort() sorted()

    python中有两种排序方法,list内置sort()方法或者python内置的全局sorted()方法 区别为: sort()方法对list排序会修改list本身,不会返回新list.sort()只 ...

  6. 基于redis的分布式锁防止高并发重复请求

    需求: 我们先举个某系统验证的列子:(A渠道系统,业务B系统,外部厂商C系统)(1)B业务系统调用A渠道系统,验证传入的手机.身份证.姓名三要素是否一致.(2)A渠道系统再调用外部厂商C系统.(3)A ...

  7. runtime使用总结

    runtime这个东西,项目是很少用到的,但面试又避不可少,了解其内部的机制对底层的理解还是很有必要的. 1.动态添加属性 拓展类别属性的简单实现 a.定义字面量指针 static char dyna ...

  8. OpenResty简介

    OpenResty(也称为 ngx_openresty)是一个全功能的 Web 应用服务器.它打包了标准的 Nginx 核心,很多的常用的第三方模块,以及它们的大多数依赖项. 通过揉和众多设计良好的 ...

  9. FTP传输

    FTP传输                    一.FTP服务–用来传输文件的协议                    二.设置匿名用户访问的FTP服务(最大权限)                 ...

  10. ArrayList 从源码角度剖析底层原理

    本篇文章已放到 Github github.com/sh-blog 仓库中,里面对我写的所有文章都做了分类,更加方便阅读.同时也会发布一些职位信息,持续更新中,欢迎 Star 对于 ArrayList ...