本demo从pytorch官方的迁移学习示例修改而来,增加了以下功能: 根据AUC来迭代最优参数: 五折交叉验证: 输出验证集错误分类图片: 输出分类报告并保存AUC结果图片. import os import numpy as np import torch import torch.nn as nn from torch.optim import lr_scheduler import torchvision from torchvision import datasets, models,
decoder.py """ 实现解码器 """ import heapq import torch.nn as nn import config import torch import torch.nn.functional as F import numpy as np import random from chatbot.attention import Attention class Decoder(nn.Module): def __i
attention.py """ 实现attention """ import torch import torch.nn as nn import torch.nn.functional as F import config class Attention(nn.Module): def __init__(self,method="general"): super(Attention,self).__init__() ass
在循环内加的teacher forcing机制,这种为目标确定的时候,可以这样加. 目标不确定,需要在循环外加. decoder.py 中的修改 """ 实现解码器 """ import torch.nn as nn import config import torch import torch.nn.functional as F import numpy as np import random class Decoder(nn.Module)
深度炼丹如同炖排骨一般,需要先大火全局加热,紧接着中火炖出营养,最后转小火收汁.本文给出炼丹中的 “火候控制器”-- 学习率的几种调节方法,框架基于 pytorch 1. 自定义根据 epoch 改变学习率. 这种方法在开源代码中常见,此处引用 pytorch 官方实例中的代码 adjust_lr def adjust_learning_rate(optimizer, epoch): """Sets the learning rate to the initial LR de