在这向大家推荐一本书-花书-动手学深度学习pytorch版,原书用的深度学习框架是MXNet,这个框架经过Gluon重新再封装,使用风格非常接近pytorch,但是由于pytorch越来越火,个人又比较执着,想学pytorch,好,有个大神来了,把《动手学深度学习》整本书用pytorch代码重现了,其GitHub网址为:https://github.com/ShusenTang/Dive-into-DL-PyTorch   原书GitHub网址为:https://github.com/d2l-ai/d2l-zh    看大家爱好,其实客观的说哪个框架都行,只要能实现代码,学会一个框架,另外的就好上手了。菜鸟的见解哈,下面是个人感觉重要的一些

  索引(x[:,1])出来和view()改变形状后,结果数据与原数据共享内存,就是修改其中一个,另外一个会跟着修改。类似于数据结构中的链表,指向的地址是同一个

  若是想不修改原数据,可以用clone()返回一个副本再修改:x.clone().view(5,3)

  item():把一个标量tensor转成python number

梯度

  标量out:out.backward()    #等价于out.backward(torch.tensor(1))

  张量out:调用backward()时需要传入一个和out同形状的权重向量进行加权求和得到一个标量

想要修改tensor的值但又不想被autograd记录(不会影响反向传播),可以通过tensor.data来操作

x = torch.tensor(1.0, requires_grad=True)
print(x.data) # tensor(1.)
print(x.data.requires_grad) # False
y = 2 * x
x.data *= 100
y.backward()
print(x) # tensor(100.,requires_grad=True)
print(x.grad) # tensor(2.) 不是tensor(200.),因为用x.data计算不被记录到计算图内

线性回归实现    参考《动手学深度学习》第三章深度学习基础-线性回归的从零开始实现

  这真是一本不错的书,我个人感觉

  %matplotlib inline:在开头导入包前加入这个,可以在后面使用matplotlib画图时不用每次都调用pyplot.show()

  

  上面的图中,圈1是通过display包设置图像显示的文件格式为svg(可以算是目前最火的图像文件格式)

  圈2中的rcParams()函数可以设置图形的各种属性,圈2是设置图像尺寸大小,还有

plt.rcParams['image.interpolation'] = 'nearest' #设置插值
plt.rcParams['image.cmap'] = 'gray' # 设置颜色
plt.rcParams['figure.dpi'] = 300 # 每英寸的点数(图片分辨率)
plt.rcParams['savefig.dpi'] = 300 # 图片像素
plt.rcParams['font.sans-serif'] = 'SimHei' # 设置字体
plt.rcParams['font.size'] = 10.0 #设置字体大小
plt.rcParams['hist.bins'] = 10 #设置直方图分箱个数
plt.rcParams['lines.linewidth'] = 1.5 #设置线宽
plt.rcParams['text.color'] = 'red' #设置文本颜色
# 还有其他参数可以百度看看

  圈3是画散点图,前两个参数是x,y,为点的横纵坐标,第三个是点的大小。其他的参数可百度

  记录一下这段读取数据的代码,由于本人太菜了,好不容易查懂不想再重新查

def data_iter(batch_size, features, labels):  # 这里batch_size:10  features:(1000,2)的矩阵 labels是经过线性回归公式计算得到的预测值,labels=X*w+b
num_examples = len(features) # features:(1000,2) len(features):1000
indices = list(range(num_examples)) # [0,1,2...,999]
random.shuffle(indices) # 将一个列表中的元素打乱,例子见下面
for i in range(0, num_examples, batch_size): # 0-1000,step=10 [0,10,20,...,999]
j = torch.LongTensor(indices[i:min(i + batch_size, num_examples)]) # 取indice值,并且返回成一个tensor。最后一次可能不足一个batch故用min函数
yield features.index_select(0, j), labels.index_select(0, j) #       

yield的理解请移步,https://blog.csdn.net/mieleizhi0522/article/details/82142856  很好理解的,感谢博主了

random.shuffle()  # 将一个数组打乱

    li = list(range(5))  # [0,1,2,3,4]
random.shuffle(li) # 作用于li列表,而不是print(random.shuffle(li)),这是输不出来的
print(li) # [3,1,0,4,2]

torch之torch.index_select(x,1,indices)  # x即要从其中(tensor x中)选择数据的tensor;1代表列,0代表行;indices筛选时的索引序号

  x.index_select(n,index)  #  n代表从第几维开始,index是筛选时的索引序号。index_select(input,dim,index)沿着指定维度对input切片,取index中指定的对应的项。 可以参考博客,感谢博主 https://www.jb51.net/article/174524.htm

数据特征和标签组合

import torch.utils.data as Data

batch_size = 10
dataset = Data.TensorDataset(features,labels) #把训练数据的特征和标签(y值)
data_iter = Data.DataLoader(dataset, batch_size,shuffle=True) #读取批量数据,批量大小为batch_size
for X, y in data_iter: # 这样才能打出
    print(X, y)
    break

 搭建模型:

  方法1:使用nn.Module定义

from torch import nn
class LinearNet(nn.Module):
def __init__(self, n_feature):
super(LinearNet, self).__init__()
self.linear = nn.Linear(n_feature, 1) # 定义前向传播
def forward(self, x):
y = self.linear(x)
return y net = LinearNet(num_inputs)
print(net) #显示网络结构

  方法2:使用nn.Sequential# nn.Sequential搭建网络

# 写法1
net = nn.Sequential(
nn.Linear(num_inputs, 1)
# 还可加入其他层
) # 写法2
net = nn.Sequential()
net.add_module('linear', nn.Linear(num_inputs, 1))
# net.add_module.....
# 写法3
from collections import OrderedDict # python内集合的一个模块,使用dict时无法保持key的顺序,而OrderedDict可以保持key的顺序
net = nn.Sequential(OrderedDict([
('linear', nn.Linear(num_inputs, 1))
# ......
])) print(net)
print(net[0])
  

小白学习之pytorch框架(2)-动手学深度学习(begin-random.shuffle()、torch.index_select()、nn.Module、nn.Sequential())的更多相关文章

  1. 对比《动手学深度学习》 PDF代码+《神经网络与深度学习 》PDF

    随着AlphaGo与李世石大战的落幕,人工智能成为话题焦点.AlphaGo背后的工作原理"深度学习"也跳入大众的视野.什么是深度学习,什么是神经网络,为何一段程序在精密的围棋大赛中 ...

  2. 【动手学深度学习】Jupyter notebook中 import mxnet出错

    问题描述 打开d2l-zh目录,使用jupyter notebook打开文件运行,import mxnet 出现无法导入mxnet模块的问题, 但是命令行运行是可以导入mxnet模块的. 原因: 激活 ...

  3. 动手学深度学习14- pytorch Dropout 实现与原理

    方法 从零开始实现 定义模型参数 网络 评估函数 优化方法 定义损失函数 数据提取与训练评估 pytorch简洁实现 小结 针对深度学习中的过拟合问题,通常使用丢弃法(dropout),丢弃法有很多的 ...

  4. 动手学深度学习4-线性回归的pytorch简洁实现

    导入同样导入之前的包或者模块 生成数据集 通过pytorch读取数据 定义模型 初始化模型 定义损失函数 定义优化算法 训练模型 小结 本节利用pytorch中的模块,生成一个更加简洁的代码来实现同样 ...

  5. 动手学深度学习11- 多层感知机pytorch简洁实现

    多层感知机的简洁实现 定义模型 读取数据并训练数据 损失函数 定义优化算法 小结 多层感知机的简洁实现 import torch from torch import nn from torch.nn ...

  6. 动手学深度学习9-多层感知机pytorch

    多层感知机 隐藏层 激活函数 小结 多层感知机 之前已经介绍过了线性回归和softmax回归在内的单层神经网络,然后深度学习主要学习多层模型,后续将以多层感知机(multilayer percetro ...

  7. 动手学深度学习8-softmax分类pytorch简洁实现

    定义和初始化模型 softamx和交叉熵损失函数 定义优化算法 训练模型 import torch from torch import nn from torch.nn import init imp ...

  8. 动手学深度学习6-认识Fashion_MNIST图像数据集

    获取数据集 读取小批量样本 小结 本节将使用torchvision包,它是服务于pytorch深度学习框架的,主要用来构建计算机视觉模型. torchvision主要由以下几个部分构成: torchv ...

  9. 《动手学深度学习》系列笔记—— 1.2 Softmax回归与分类模型

    目录 softmax的基本概念 交叉熵损失函数 模型训练和预测 获取Fashion-MNIST训练集和读取数据 get dataset softmax从零开始的实现 获取训练集数据和测试集数据 模型参 ...

随机推荐

  1. jedis的ShardedJedisPool链接池的扩容问题

    回顾上一篇文章jedis连接池的构建. 我们来分析ShardedJedisPool的基于客户端分片所可能带来的问题:扩容 ShardedJedisPool的节点扩容 .ShardedJedisPool ...

  2. 个人vim简单配置

    精简.vimrc配置,简约不简单 该配置没有花里胡哨的插件,只是用ctags和cscope然后配合vim提供的基础功能就可以完成常见的代码编辑,浏览,查找等工作. "************ ...

  3. Windows 10任务调度器曝出新零日漏洞

    新浪科技讯,北京时间 5 月 23 日早间消息,据美国科技媒体 BleepingComputer 报道,在微软每月安全更新周期刚刚过去一周后,漏洞开发者 SandboxEscaper 悄悄发布了 Wi ...

  4. 前台图片Canvas压缩上传小结

    需求来源:之前有个提交审核表单的业务,表单中含有大量附件图片,大约有20多张吧,为了省事,采用的同步上传,一次需要上传很多照片,本来单张图片限制为200KB,这样子总图片大小约为5MB左右,想想也可以 ...

  5. 使用软件模拟spi 时序时注意点

    软件模拟 spi 时序有以下几个点需要注意: cs 使能后到第一个 sck 边沿需要延时. 最后一个sck 边沿到下一个 cs 需要延时. sck 的高电平和低电平本身需要维持时间. mosi 需要先 ...

  6. 删除所有的docker容器和镜像(转载)

    列出所有的容器 ID docker ps -aq 停止所有的容器 docker stop $(docker ps -aq) 删除所有的容器 docker rm $(docker ps -aq) 删除所 ...

  7. 51nod 1392:装盒子 匈牙利+贪心

    1392 装盒子 基准时间限制:1 秒 空间限制:131072 KB 分值: 160 难度:6级算法题  收藏  关注 有n个长方形盒子,第i个长度为Li,宽度为Wi,我们需要把他们套放.注意一个盒子 ...

  8. 应用架构的演进--MVC,RPC,SOA,微服务架构

    MVC架构:垂直应用架构 当访问量逐渐增大,单一应用增加机器带来的加速度越来越小,将应用拆成互不相干的几个应用,以提升效率. 当业务规模很小时,将所有功能都部署在同一个进程中,通过双机或者前置负载均衡 ...

  9. 2020.2.21一些python总结

    #字符串前面加r可以防止字符串转义 \也可以防止字符串转义#三引号可以实现输入多行文本#range(start,end,step)#列表 append添加一个元素到末尾 extend 添加一个素组到末 ...

  10. Git 学习 day01

    Tips:最近的工作中需要用到版本控制工具git,所以准备开一个分类用来记录下自己学到的知识,以备以后温习 在安装完git之后需要设置用户名和用户邮箱: $ git config --global u ...