pytorch构建自己的数据集
现在需要在json文件里面读取图片的URL和label,这里面可能会出现某些URL地址无效的情况。
python读取json文件
此处只需要将json文件里面的内容读取出来就可以了
with open("json_path",'r') ad load_f:
load_dict = json.load(load_f)
json_path是json文件的地址,json文件里面的内容读取到load_dict变量中,变量类型为字典类型。
python通过URL打开图片
通过skimage获取URL图片是简单的方式。
from skimage import io
image = io.imread(img_src) # img_src是图片的URL
io.imshow(image)
io.show()
pytorch构建自己的数据集
pytorch中文网中有比较好的讲解: https://ptorch.com/news/215.html
加载图片预处理以及可视化见: https://oldpan.me/archives/pytorch-transforms-opencv-scikit-image
定义自己的数据集使用类 torch.utils.data.Dataset这个类,这个类中有三个关键的默认成员函数,__init__,__len__,__getitem__。
__init__类实例化应用,所以参数项里面最好有数据集的path,或者是数据以及标签保存的json、csv文件,在__init__函数里面对json、csv文件进行解析。
__len__需要返回images的数量。
__getitem__中要返回image和相对应的label,要注意的是此处参数有一个index,指的返回的是哪个image和label。
import torch
from torchvision import transforms
import json
import os
from PIL import Image class ProductDataset(torch.utils.data.Dataset):
def __init__(self,json_path,data_path,transform = None,train = True):
with open(json_path,'r') as load_f:
self.json_dict = json.load(load_f)
self.json_dict = self.json_dict["images"]
self.train = train
self.data_path = data_path
self.transform = transform def __len__(self):
return len(self.json_dict) def __getitem__(self,index):
image_id = os.path.join(self.data_path + '/',str(self.json_dict[index]["id"]))
image = Image.open(image_id)
image = image.convert('RGB')
label = int(self.json_dict[index]["class"])
if self.transform:
image = self.transform(image)
if self.train:
return image,label
else:
image_id = self.json_dict[index]["id"]
return image,label,image_id if __name__ == '__main__':
val_dataset = ProductDataset('data/FullImageTrain.json','data/train',train=False,
transform=transforms.Compose([
transforms.Pad(4),
transforms.RandomResizedCrop(224),
transforms.RandomHorizontalFlip(),
transforms.ToTensor(),
transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010))
]))
kwargs = {'num_workers': 4, 'pin_memory': True}
test_loader = torch.utils.data.DataLoader(dataset=val_dataset,
batch_size=32,
shuffle=False,
**kwargs) print(val_dataset.__len__())
count = 0
for image,label,image_id in test_loader:
print(image.shape,count)
count += 1

关于transform,图像预处理的各个函数功能介绍如下:
torch.transforms是常见的图像变换,可以用Compose连接起来。
下面是Transforms on PIL Image:
transforms.CenterCrop(size):
size可以是一个像(h,w)的sequence,这样输出的是一个中心裁剪的(h,w)图像。
transforms.ColorJitter(brightness=0, contrast=0, saturation=0, hue=0):
随机更改图像的亮度,对比度和饱和度。
传递的参数是float型变量或者是tuple(元素是float型)型变量,如果是tuple型变量,第一个元素是min值,第二个元素是max值。
transforms.Grayscale(num_output_channels=1)
将Image转换为灰度值
transforms.Pad(padding, fill=0, padding_mode='constant')
padding这个参数,如果给定的是单个的值,那么会pad所有的边。
transforms.RandomCrop(size, padding=None, pad_if_needed=False, fill=0, padding_mode='constant')
随机裁剪图片到给定尺寸
size如果是(h,w)这样的sequence,那么将剪出一个(h,w)大小的图片
transforms.RandomHorizontalFlip(p=0.5):
以给定的概率随机水平翻转给定的PIL图像。
transforms.RandomResizedCrop(size,scale=(0.08, 1.0), ratio=(0.75, 1.3333333333333333), interpolation=2)
将给定的图像随机裁剪为不同的大小和高宽比,然后缩放所裁剪的图像到指定大小。
该操作的含义:即使只是该物体的一部分,我们也认为这是该类物体。
scale为0.08到1的意思为裁剪的面积比例为0.08到1,注意是面积不是边,ratio是高宽比。
transforms.Resize(size, interpolation=2):
Resize给定的Image图像到指定大小。
size:给定图像大小
interpolation:差值方法,默认是PIL.Image.BILINEAR
下面是Transforms on torch.*Tensor:
transforms.Normalize(mean,var,inplace=False):
标准化图像,mean和var给定三个值的情况下,是分别对于RGB三个channel进行标准化。
pytorch构建自己的数据集的更多相关文章
- 使用pytorch构建神经网络的流程以及一些问题
使用PyTorch构建神经网络十分的简单,下面是我总结的PyTorch构建神经网络的一般过程以及我在学习当中遇到的一些问题,期望对你有所帮助. PyTorch构建神经网络的一般过程 下面的程序是PyT ...
- 使用PyTorch构建神经网络模型进行手写识别
使用PyTorch构建神经网络模型进行手写识别 PyTorch是一种基于Torch库的开源机器学习库,应用于计算机视觉和自然语言处理等应用,本章内容将从安装以及通过Torch构建基础的神经网络,计算梯 ...
- pytorch 加载mnist数据集报错not gzip file
利用pytorch加载mnist数据集的代码如下 import torchvision import torchvision.transforms as transforms from torch.u ...
- 使用PyTorch构建神经网络以及反向传播计算
使用PyTorch构建神经网络以及反向传播计算 前一段时间南京出现了疫情,大概原因是因为境外飞机清洁处理不恰当,导致清理人员感染.话说国外一天不消停,国内就得一直严防死守.沈阳出现了一例感染人员,我在 ...
- pytorch构建自己设计的层
下面是如何自己构建一个层,分为包含自动反向求导和手动反向求导两种方式,后面会分别构建网络,对比一下结果对不对. -------------------------------------------- ...
- Pytorch文本分类(imdb数据集),含DataLoader数据加载,最优模型保存
用pytorch进行文本分类,数据集为keras内置的imdb影评数据(二分类),代码包含六个部分(详见代码) 使用环境: pytorch:1.1.0 cuda:10.0 gpu:RTX2070 (1 ...
- 【猫狗数据集】pytorch训练猫狗数据集之创建数据集
猫狗数据集的分为训练集25000张,在训练集中猫和狗的图像是混在一起的,pytorch读取数据集有两种方式,第一种方式是将不同类别的图片放于其对应的类文件夹中,另一种是实现读取数据集类,该类继承tor ...
- PyTorch迁移学习-私人数据集上的蚂蚁蜜蜂分类
迁移学习的两个主要场景 微调CNN:使用预训练的网络来初始化自己的网络,而不是随机初始化,然后训练即可 将CNN看成固定的特征提取器:固定前面的层,重写最后的全连接层,只有这个新的层会被训练 下面修改 ...
- pytorch构建优化器
这是莫凡python学习笔记. 1.构造数据,可以可视化看看数据样子 import torch import torch.utils.data as Data import torch.nn.func ...
随机推荐
- Angular2 File Upload
Angular2 File Upload Install Install the components npm install ng2-file-upload --save github: https ...
- android AsyncTask异步任务(笔记)
AsyncTask是一个专门用来处理后台进程与UI线程的工具.通过AsyncTask,我们可以非常方便的进行后台线程和UI线程之间的交流. 那么AsyncTask是如何工作的哪. AsyncTask拥 ...
- 【查阅】教你使用SQL SERVER复制
关键词:复制,复制总结,复制汇总,复制查阅 1.概念与搭建 Step1:SQL SERVER复制介绍 Step2:SQL Server 复制事务发布 Step3:SQL Server 通过备份文件初始 ...
- python安装包API文档
在python开发过程中,经常会使用第三方包,或者内置的包. 那么这些包,具体有哪些选项,有哪些方法,你知道吗?下面介绍一种万能方法. 使用命令:<注意,命令里python显示的API版本是根据 ...
- HBase笔记6 过滤器
过滤器 过滤器是GET或者SCAN时过滤结果用的,相当于SQL的where语句 HBase中的过滤器创建后会被序列化,然后分发到各个region server中,region server会还原过滤器 ...
- select2 api参数中文文档
select2 api参数的文档 具体参数可以参考一下: 参数 类型 描述 Width 字符串 控制 宽度 样式属性的Select2容器div minimumInputLength int 最小数 ...
- airflow中的两个参数
'trigger_rule':'all_done','retry_delay':timedelta(),
- 国内老版本ubuntu更新源地址以及sources.list的配置方法
在终端输入并运行 sudo apt-get install vimsudo cp /etc/apt/sources.list /etc/apt/sources.list.backup (备份当前的源列 ...
- scrapy item pipeline
item pipeline process_item(self, item, spider) #这个是所有pipeline都必须要有的方法在这个方法下再继续编辑具体怎么处理 另可以添加别的方法 ope ...
- HTTPConnectionPool(host='xx.xx.xx.xx', port=xx): Max retries exceeded with url:(Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x0000015A25025EB8>...))
HTTPConnectionPool(host='xx.xx.xx.xx', port=xx): Max retries exceeded with url:(Caused by ConnectTim ...