李宏毅2022机器学习HW3 Image Classification
Homework3
数据集下载
在本地环境下进行实验总是令人安心,但是又苦于网上找不到数据集,虽然kaggle上有数据集但是下载存在问题

于是有了一个天才的想法,间接从kaggle上下载(利用output文件夹中的文件是可下载这一机制将数据集从input文件夹拷贝到output文件夹),具体操作如下图

等待数据集拷贝到output后,点击输出的蓝色链接即可下载。
相关代码由下给出
!python -m zipfile -c /kaggle/working/Dataset.zip /kaggle/input/ml2022spring-hw4/Dataset # copy数据集到output文件夹,此过程可能较慢
import os
os.chdir('/kaggle/working')
print(os.getcwd())
print(os.listdir("/kaggle/working"))
from IPython.display import FileLink
FileLink('mycode.zip')
任务要求
Task1 模型选择
这里对改进sample code中的模型以及引用其他模型进行了尝试,但效果不佳。
如果你想对sample code中的模型进行改进,直接在类Classifier中的self.cnn以及self.fc模块中进行修改即可
如果你想引入其他的模型,可以参考下面的代码
import torchvision.models as models
alexNet = models.alexnet(weights=None, num_classes=11)
# model = Classifier().to(device)
model = alexNet.to(device)
PS.至于视频中提到的pretrained问题,这个参数以及被废除,使用参数weights代替,而且这里类别数与原模型的类别数不一致,如果使用原模型参数会报错。
Task2 数据增强
指出原代码问题
__getitem__中
label = int(fname.split("/")[-1].split("_")[0])
应改为
label = int(fname.split("/")[-1].split("_")[0].split("\\")[-1])
训练数据增强
这里我理解助教的意思应该是对每一个训练数据进行多种transform转换最后仍为一个样本,因此我这里的转换代码如下:
transform1 = transforms.RandomHorizontalFlip()
transform2 = transforms.RandomRotation(30)
transform3 = transforms.ColorJitter(brightness=0.5)
transform4 = transforms.RandomAffine(degrees=20, translate=(0.2, 0.2), scale=(0.7, 1.3))
train_tfm = transforms.Compose([
# Resize the image into a fixed shape (height = width = 128)
transforms.Resize((128, 128)),
# You may add some transforms here.
transforms.RandomChoice([transform1, transform2, transform3, transform4]), # 对每个样本随意挑选一种转换
# ToTensor() should be the last one of the transforms.
transforms.ToTensor(),
])
trans_size = 4
测试数据增强 & Ensemble
这里我理解助教的意思是对一个测试样本进行多种不同的变换得到不同的测试样本进行预测,通过投票或其他方式决定这个测试样本的标签
如上面所说,在transforms.Compose中进行多种组合最后得到的仍为一个样本,因此不能在这里进行操作,这里选择在__getitem__中进行修改
except:
label = -1 # test has no label
# multiple prediction for testing samples
trans_im1 = train_tfm(im)
trans_im2 = train_tfm(im)
trans_im3 = train_tfm(im)
trans_im4 = train_tfm(im)
trans_im = torch.stack((trans_im, trans_im1, trans_im2, trans_im3, trans_im4))
这样我们就可以得到原样本以及变换后的四个样本,在测试时,依次取出进行预测并选择合适的机制得到标签即可。
这里我们选择助教说的第一种方式做ensemble
model_best = Classifier().to(device)
model_best.load_state_dict(torch.load(f"{_exp_name}_best.ckpt"))
model_best.eval()
prediction = []
with torch.no_grad():
for data,_ in test_loader:
# multiple prediction
data = data.to(device)
# original test batch sample
test_pred = model_best(data[:, 0, :, :, :])
test_pred1 = model_best(data[:, 1, :, :, :])
test_pred2 = model_best(data[:, 2, :, :, :])
test_pred3 = model_best(data[:, 3, :, :, :])
test_pred4 = model_best(data[:, 4, :, :, :])
test_pred = test_pred *0.65 + 0.35*(test_pred1 + test_pred2 + test_pred3 + test_pred4)/4.0
test_label = np.argmax(test_pred.cpu().data.numpy(), axis=1)
prediction += test_label.squeeze().tolist()
Mixup数据增强
这里助教所说应该是对训练数据进行Mixup增强,但是效果也是不太行。
下面给出__getitem__完整代码,这里面对train samples进行Mixup增强,对test samples进行了多变换增强。
def __getitem__(self,idx):
# original image procession
fname = self.files[idx]
im = Image.open(fname)
# original image transform
trans_im = self.transform(im)
#
# im = self.data[idx]
try:
# label = int(fname.split("/")[-1].split("_")[0])
label = int(fname.split("/")[-1].split("_")[0].split("\\")[-1])
# mixup augmentation for train samples
fname1 = self.files[random.randint(0, self.__len__() - 1)]
im1 = Image.open(fname1)
trans_mix_im1 = self.transform(im1)
label1 = int(fname1.split("/")[-1].split("_")[0].split("\\")[-1])
trans_im = 0.5*trans_im + 0.5*trans_mix_im1
label = [label, label1]
except:
label = -1 # test has no label
# multiple prediction for testing samples
trans_im1 = train_tfm(im)
trans_im2 = train_tfm(im)
trans_im3 = train_tfm(im)
trans_im4 = train_tfm(im)
trans_im = torch.stack((trans_im, trans_im1, trans_im2, trans_im3, trans_im4))
return trans_im,label
loss修改
loss = criterion(logits, labels[0].to(device))
loss1 = criterion(logits, labels[1].to(device))
loss = loss + loss1
def mixup_accuracy(output, target1, target2):
"""
计算 Mixup 样本的准确率
:param output: 模型的输出,形状为 (batch_size, num_classes)
:param target1: 第一个样本的标签,形状为 (batch_size,)
:param target2: 第二个样本的标签,形状为 (batch_size,)
:return: 准确率
"""
# 计算模型对混合样本的预测结果
output = output.to(device)
target1 = target1.to(device)
target2 = target2.to(device)
_, pred_indices = output.topk(2, dim=-1)
# 取出预测结果中最大的两个值对应的索引
pred1_indices = pred_indices[:, 0] # 第一个最大值的索引
pred2_indices = pred_indices[:, 1] # 第二个最大值的索引
# 计算混合样本的准确率
acc1 = (((pred1_indices == target1) | (pred1_indices == target2))).float()
acc2 = (((pred2_indices == target1) | (pred2_indices == target2))).float()
acc = (acc1 + acc2 == 2.0).float().mean()
return acc
###Task3 交叉验证
ChatGpt告诉我这么做
```python
k = 4
kf = KFold(n_splits=k, shuffle=True, random_state=42)
for fold, (train_idx, valid_idx) in enumerate(kf.split(dataset)):
train_set = Subset(dataset, train_idx)
valid_set = Subset(dataset, valid_idx)
# Create data loaders for training and validation sets
train_loader = DataLoader(train_set, batch_size=batch_size, shuffle=True, pin_memory=True)
valid_loader = DataLoader(valid_set, batch_size=batch_size, shuffle=False, pin_memory=True)
最终结果
这一套组合拳下来,结果糟糕透了,不知道哪里出了问题!

李宏毅2022机器学习HW3 Image Classification的更多相关文章
- 李宏毅老师机器学习课程笔记_ML Lecture 3-1: Gradient Descent
引言: 这个系列的笔记是台大李宏毅老师机器学习的课程笔记 视频链接(bilibili):李宏毅机器学习(2017) 另外已经有有心的同学做了速记并更新在github上:李宏毅机器学习笔记(LeeML- ...
- 李宏毅老师机器学习课程笔记_ML Lecture 2: Where does the error come from?
引言: 最近开始学习"机器学习",早就听说祖国宝岛的李宏毅老师的大名,一直没有时间看他的系列课程.今天听了一课,感觉非常棒,通俗易懂,而又能够抓住重点,中间还能加上一些很有趣的例子 ...
- 李宏毅老师机器学习课程笔记_ML Lecture 1: ML Lecture 1: Regression - Demo
引言: 最近开始学习"机器学习",早就听说祖国宝岛的李宏毅老师的大名,一直没有时间看他的系列课程.今天听了一课,感觉非常棒,通俗易懂,而又能够抓住重点,中间还能加上一些很有趣的例子 ...
- 李宏毅老师机器学习课程笔记_ML Lecture 1: 回归案例研究
引言: 最近开始学习"机器学习",早就听说祖国宝岛的李宏毅老师的大名,一直没有时间看他的系列课程.今天听了一课,感觉非常棒,通俗易懂,而又能够抓住重点,中间还能加上一些很有趣的例子 ...
- 李宏毅老师机器学习课程笔记_ML Lecture 0-2: Why we need to learn machine learning?
引言: 最近开始学习"机器学习",早就听说祖国宝岛的李宏毅老师的大名,一直没有时间看他的系列课程.今天听了一课,感觉非常棒,通俗易懂,而又能够抓住重点,中间还能加上一些很有趣的例子 ...
- 李宏毅老师机器学习课程笔记_ML Lecture 0-1: Introduction of Machine Learning
引言: 最近开始学习"机器学习",早就听说祖国宝岛的李宏毅老师的大名,一直没有时间看他的系列课程.今天听了一课,感觉非常棒,通俗易懂,而又能够抓住重点,中间还能加上一些很有趣的例子 ...
- 李宏毅老师机器学习第一课Linear regression
机器学习就是让机器学会自动的找一个函数 学习图谱: 1.regression example appliation estimating the combat power(cp) of a pokem ...
- 基于卷积神经网络的面部表情识别(Pytorch实现)----台大李宏毅机器学习作业3(HW3)
一.项目说明 给定数据集train.csv,要求使用卷积神经网络CNN,根据每个样本的面部图片判断出其表情.在本项目中,表情共分7类,分别为:(0)生气,(1)厌恶,(2)恐惧,(3)高兴,(4)难过 ...
- Logistic回归二分类Winner or Losser----台大李宏毅机器学习作业二(HW2)
一.作业说明 给定训练集spam_train.csv,要求根据每个ID各种属性值来判断该ID对应角色是Winner还是Losser(0.1分类). 训练集介绍: (1)CSV文件,大小为4000行X5 ...
- 线性回归预测PM2.5----台大李宏毅机器学习作业1(HW1)
一.作业说明 给定训练集train.csv,要求根据前9个小时的空气监测情况预测第10个小时的PM2.5含量. 训练集介绍: (1)CSV文件,包含台湾丰原地区240天的气象观测资料(取每个月前20天 ...
随机推荐
- [转帖][java] GC (Allocation Failure)日志分析
日前查看某个程序的日志,发现一直在报GC相关的信息,不确定这样的信息是代表正确还是不正确,所以正好借此机会再复习下GC相关的内容: 以其中一行为例来解读下日志信息: [GC (Allocation F ...
- [转帖]Linux fsync和fdatasync系统调用实现分析(Ext4文件系统)
转自:https://blog.csdn.net/luckyapple1028/article/details/61413724 在Linux系统中,对文件系统上文件的读写一般是通过页缓存(pag ...
- 【转帖】linux环境下使用route指令设置多个网络连接的优先级(通过修改路由表的默认网关条目)
1. 背景 在生活中的会经常遇见一台PC同时连接多个网络的场景.最典型的,一台笔记本可以同时连接一个无线网(手机热点)和一个有线网(以太网).linux和window操作系统在默认情况都会使用最早连接 ...
- [转帖]Linux命令学习手册-readelf
https://www.jianshu.com/p/405844abefae readelf elf-file(s) 功能 用于显示 elf 格式文件的信息. 描述 readelf 用来显示一个或者多 ...
- [转帖]Spring Cloud Alibaba Nacos 注册中心使用教程
一. 什么是Nacos Nacos是一个更易于构建云原生应用的动态服务发现(Nacos Discovery ).服务配置(Nacos Config)和服务管理平台,集注册中心+配置中心+服务管理于一身 ...
- Stress-ng 的简单学习
背景 想研究一下国产和不同架构,不通型号CPU的算力 也作为后续生产交付的基线准备. 学习各种不同工具进行简要测试. 安装 git clone https://github.com/ColinIanK ...
- Linux 环境下 node 以及 jit 的简单环境配置说明
注意事项: 1. 注意这个包需要实时更新. 2. 更新时需要按照目录覆盖文件. 3. 谁负责谁治理的态度, 有更新,需要完整的进行覆盖安装. 建议先删除旧文件, 替换新文件. 4. 为了简单起见, 直 ...
- How to Use Github
C:\Windows\System32\drivers\etc\hosts 在最后加上一句 20.205.243.166 github.com 从 https://ping.chinaz.com/ 来 ...
- vm-storage在全部都是新metric情况下的写入性能测试
作者:张富春(ahfuzhang),转载时请注明作者和引用链接,谢谢! cnblogs博客 zhihu Github 公众号:一本正经的瞎扯 vm-storage中,写入索引的性能要比写入data p ...
- 2020美亚个人赛wp
案例背景 2020年9月,数名信用卡持有人向警方报案,指他们的信用卡被不知名人士在一家本地网上商店购买手机.订单大部分来自海外的网络地址,但有一宗订单来自本地.警方经调查后发现该本地网络地址的注册地址 ...