转载自:https://blog.csdn.net/dss_dssssd/article/details/83892824

版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/dss_dssssd/article/details/83892824
————————————————
版权声明:本文为CSDN博主「墨氲」的原创文章,遵循CC 4.0 by-sa版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/dss_dssssd/article/details/83892824

神经网络训练的基本步骤如下:

1、准备数据集;

2、定义网络结构;

3、定义损失函数;

4、定义优化算法;

5、迭代训练;

准备好tensor形式的输入数据以及标签;

定义好网络前向传播用于计算网络的输出(output)以及网络的损失函数(loss)

反向传播进行网络参数更新:以下三个步骤

(1)将上一个迭代所计算的梯度进行清零:optimizer.zero_grad()

(2)进行本次迭代的梯度计算,计算梯度值:loss.backward()

(3)更新网络的权值参数:optimizer.step()

保存训练集上的loss以及验证集上的loss以及准确率,并打印可视化;

  1. import torch
  2. import torch.nn as nn
  3. import numpy as np
  4. import matplotlib.pyplot as plt
  5.  
  6. # Hyper-parameters 定义迭代次数, 学习率以及模型形状的超参数
  7. input_size = 1
  8. output_size = 1
  9. num_epochs = 60
  10. learning_rate = 0.001
  11.  
  12. # Toy dataset 1. 准备数据集
  13. x_train = np.array([[3.3], [4.4], [5.5], [6.71], [6.93], [4.168],
  14. [9.779], [6.182], [7.59], [2.167], [7.042],
  15. [10.791], [5.313], [7.997], [3.1]], dtype=np.float32)
  16.  
  17. y_train = np.array([[1.7], [2.76], [2.09], [3.19], [1.694], [1.573],
  18. [3.366], [2.596], [2.53], [1.221], [2.827],
  19. [3.465], [1.65], [2.904], [1.3]], dtype=np.float32)
  20.  
  21. # Linear regression model 2. 定义网络结构 y=w*x+b 其中w的size [1,1], b的size[1,]
  22. model = nn.Linear(input_size, output_size)
  23.  
  24. # Loss and optimizer 3.定义损失函数, 使用的是最小平方误差函数
  25. criterion = nn.MSELoss()
  26. # 4.定义迭代优化算法, 使用的是随机梯度下降算法
  27. optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)
  28. loss_dict = []
  29. # Train the model 5. 迭代训练
  30. for epoch in range(num_epochs):
  31. # Convert numpy arrays to torch tensors 5.1 准备tensor的训练数据和标签
  32. inputs = torch.from_numpy(x_train)
  33. targets = torch.from_numpy(y_train)
  34.  
  35. # Forward pass 5.2 前向传播计算网络结构的输出结果
  36. outputs = model(inputs)
  37. # 5.3 计算损失函数
  38. loss = criterion(outputs, targets)
  39.  
  40. # Backward and optimize 5.4 反向传播更新参数
  41. optimizer.zero_grad()
  42. loss.backward()
  43. optimizer.step()
  44.  
  45. # 可选 5.5 打印训练信息和保存loss
  46. loss_dict.append(loss.item())
  47. if (epoch+1) % 5 == 0:
  48. print ('Epoch [{}/{}], Loss: {:.4f}'.format(epoch+1, num_epochs, loss.item()))
  49.  
  50. # Plot the graph 画出原y与x的曲线与网络结构拟合后的曲线
  51. predicted = model(torch.from_numpy(x_train)).detach().numpy()
  52. plt.plot(x_train, y_train, 'ro', label='Original data')
  53. plt.plot(x_train, predicted, label='Fitted line')
  54. plt.legend()
  55. plt.show()
  56.  
  57. # 画loss在迭代过程中的变化情况
  58. plt.plot(loss_dict, label='loss for every epoch')
  59. plt.legend()
  60. plt.show()
  61. ————————————————
  62. 版权声明:本文为CSDN博主「墨氲」的原创文章,遵循CC 4.0 by-sa版权协议,转载请附上原文出处链接及本声明。
  63. 原文链接:https://blog.csdn.net/dss_dssssd/article/details/83892824

pytorch神经网络实现的基本步骤的更多相关文章

  1. 使用Google-Colab训练PyTorch神经网络

    Colaboratory 是免费的 Jupyter 笔记本环境,不需要进行任何设置就可以使用,并且完全在云端运行.关键是还有免费的GPU可以使用!用Colab训练PyTorch神经网络步骤如下: 1: ...

  2. pytorch神经网络解决回归问题(非常易懂)

    对于pytorch的深度学习框架,在建立人工神经网络时整体的步骤主要有以下四步: 1.载入原始数据 2.构建具体神经网络 3.进行数据的训练 4.数据测试和验证 pytorch神经网络的数据载入,以M ...

  3. PyTorch 神经网络

    PyTorch 神经网络 神经网络 神经网络可以通过 torch.nn 包来构建. 现在对于自动梯度(autograd)有一些了解,神经网络是基于自动梯度 (autograd)来定义一些模型.一个 n ...

  4. 『PyTorch』第四弹_通过LeNet初识pytorch神经网络_下

    『PyTorch』第四弹_通过LeNet初识pytorch神经网络_上 # Author : Hellcat # Time : 2018/2/11 import torch as t import t ...

  5. PyTorch神经网络集成技术

    PyTorch神经网络集成技术 create_python_neuropod 将任意python代码打包为一个neurood包. create_python_neuropod( neuropod_pa ...

  6. Tensor:Pytorch神经网络界的Numpy

    摘要:Tensor,它可以是0维.一维以及多维的数组,你可以将它看作为神经网络界的Numpy,它与Numpy相似,二者可以共享内存,且之间的转换非常方便. 本文分享自华为云社区<Tensor:P ...

  7. PyTorch学习笔记6--案例2:PyTorch神经网络(MNIST CNN)

    上一节中,我们使用autograd的包来定义模型并求导.本节中,我们将使用torch.nn包来构建神经网络. 一个nn.Module包含各个层和一个forward(input)方法,该方法返回outp ...

  8. 机器学习 —— 基础整理(八)循环神经网络的BPTT算法步骤整理;梯度消失与梯度爆炸

    网上有很多Simple RNN的BPTT(Backpropagation through time,随时间反向传播)算法推导.下面用自己的记号整理一下. 我之前有个习惯是用下标表示样本序号,这里不能再 ...

  9. 『PyTorch』第四弹_通过LeNet初识pytorch神经网络_上

    总结一下相关概念: torch.Tensor - 一个近似多维数组的数据结构 autograd.Variable - 改变Tensor并且记录下来操作的历史记录.和Tensor拥有相同的API,以及b ...

随机推荐

  1. zblog文件大小超出,上传成功但插入不了

    在zblogphp时,经常会遇到需要上传2m以上的文件或图片,这个时候就需要修改默认上传文件的大小了.看了很多地方的文章都解决不了,后面在麒麟杰博客找到相关解决办法.   工具/原料   zblogp ...

  2. request请求模拟导出文件

    ui界面: 实现代码: def export(self,host): '''导出课时券记录''' #测试接口 url='https://'+host+r'/ticket-record/export?t ...

  3. 三个线程abc顺序执行

    1.使用synchronized悲观锁(秋招阿里的一个笔试题,应该写的比较复杂,然后就没有然后了o(╥﹏╥)o) public class ThreadThreadp { private int fl ...

  4. PHP实现简单留言板

    最近学习了下PHP基础,这里做一个简单的留言板,算是对PHP和MySQL的使用做一个整体的练习吧,不遇到问题总感觉学不到东西. 截图如下: 总结: 1>数据库的简单操作,数据库的增删改查: 2. ...

  5. NodeJs本地搭建服务器,模拟接口请求,获取json数据

    最近在学习Node.js,虽然就感觉学了点皮毛,感觉这个语言还不错,并且也会一步步慢慢的学着的,这里实现下NodeJs本地搭建服务器,模拟接口请求,获取json数据. 具体的使用我就不写了,这个博客写 ...

  6. 看看BeginInvoke的用法,亲爱的们

    看看它是杂带参数的哈 using System; using System.Threading; class MyTest { delegate bool deleTest(string a,stri ...

  7. wordpress通过$wpdb获取一个分类下所有的文章

    在wordpress程序根目录下新建一个php文件,粘贴下面的代码 如下面的代码注释,修改$CID这个分类id,就可以获取这个分类下的文章了.这个查询需要联合三个表wp_posts.wp_term_r ...

  8. 【c# 学习笔记】子类的初始化顺序

    使用了继承之后,当我们初始化一个子类时,除了会调用子类的构造函数外,同时也会调用基类的构造函数.子类的初始化顺序如下: ① 初始化类的实例字段: ② 调用基类的构造函数,如果没有指明基类,则调用Sys ...

  9. 关于async await的测试

    async await的教程:https://www.cnblogs.com/zhaoshujie/p/11192036.html 异步方法: private async Task<string ...

  10. Egret入门学习日记 --- 问题汇总

    问题1: 图片无法拖入到 EXML 文件的问题 在日记 第六篇 有记载:https://www.cnblogs.com/dmc-nero/p/11188975.html 位于 3.6节 内容. 问题2 ...