李宏毅2022机器学习HW3 Image Classification
Homework3
数据集下载
在本地环境下进行实验总是令人安心,但是又苦于网上找不到数据集,虽然kaggle上有数据集但是下载存在问题

于是有了一个天才的想法,间接从kaggle上下载(利用output文件夹中的文件是可下载这一机制将数据集从input文件夹拷贝到output文件夹),具体操作如下图

等待数据集拷贝到output后,点击输出的蓝色链接即可下载。
相关代码由下给出
!python -m zipfile -c /kaggle/working/Dataset.zip /kaggle/input/ml2022spring-hw4/Dataset # copy数据集到output文件夹,此过程可能较慢
import os
os.chdir('/kaggle/working')
print(os.getcwd())
print(os.listdir("/kaggle/working"))
from IPython.display import FileLink
FileLink('mycode.zip')
任务要求
Task1 模型选择
这里对改进sample code中的模型以及引用其他模型进行了尝试,但效果不佳。
如果你想对sample code中的模型进行改进,直接在类Classifier中的self.cnn以及self.fc模块中进行修改即可
如果你想引入其他的模型,可以参考下面的代码
import torchvision.models as models
alexNet = models.alexnet(weights=None, num_classes=11)
# model = Classifier().to(device)
model = alexNet.to(device)
PS.至于视频中提到的pretrained问题,这个参数以及被废除,使用参数weights代替,而且这里类别数与原模型的类别数不一致,如果使用原模型参数会报错。
Task2 数据增强
指出原代码问题
__getitem__中
label = int(fname.split("/")[-1].split("_")[0])
应改为
label = int(fname.split("/")[-1].split("_")[0].split("\\")[-1])
训练数据增强
这里我理解助教的意思应该是对每一个训练数据进行多种transform转换最后仍为一个样本,因此我这里的转换代码如下:
transform1 = transforms.RandomHorizontalFlip()
transform2 = transforms.RandomRotation(30)
transform3 = transforms.ColorJitter(brightness=0.5)
transform4 = transforms.RandomAffine(degrees=20, translate=(0.2, 0.2), scale=(0.7, 1.3))
train_tfm = transforms.Compose([
# Resize the image into a fixed shape (height = width = 128)
transforms.Resize((128, 128)),
# You may add some transforms here.
transforms.RandomChoice([transform1, transform2, transform3, transform4]), # 对每个样本随意挑选一种转换
# ToTensor() should be the last one of the transforms.
transforms.ToTensor(),
])
trans_size = 4
测试数据增强 & Ensemble
这里我理解助教的意思是对一个测试样本进行多种不同的变换得到不同的测试样本进行预测,通过投票或其他方式决定这个测试样本的标签
如上面所说,在transforms.Compose中进行多种组合最后得到的仍为一个样本,因此不能在这里进行操作,这里选择在__getitem__中进行修改
except:
label = -1 # test has no label
# multiple prediction for testing samples
trans_im1 = train_tfm(im)
trans_im2 = train_tfm(im)
trans_im3 = train_tfm(im)
trans_im4 = train_tfm(im)
trans_im = torch.stack((trans_im, trans_im1, trans_im2, trans_im3, trans_im4))
这样我们就可以得到原样本以及变换后的四个样本,在测试时,依次取出进行预测并选择合适的机制得到标签即可。
这里我们选择助教说的第一种方式做ensemble
model_best = Classifier().to(device)
model_best.load_state_dict(torch.load(f"{_exp_name}_best.ckpt"))
model_best.eval()
prediction = []
with torch.no_grad():
for data,_ in test_loader:
# multiple prediction
data = data.to(device)
# original test batch sample
test_pred = model_best(data[:, 0, :, :, :])
test_pred1 = model_best(data[:, 1, :, :, :])
test_pred2 = model_best(data[:, 2, :, :, :])
test_pred3 = model_best(data[:, 3, :, :, :])
test_pred4 = model_best(data[:, 4, :, :, :])
test_pred = test_pred *0.65 + 0.35*(test_pred1 + test_pred2 + test_pred3 + test_pred4)/4.0
test_label = np.argmax(test_pred.cpu().data.numpy(), axis=1)
prediction += test_label.squeeze().tolist()
Mixup数据增强
这里助教所说应该是对训练数据进行Mixup增强,但是效果也是不太行。
下面给出__getitem__完整代码,这里面对train samples进行Mixup增强,对test samples进行了多变换增强。
def __getitem__(self,idx):
# original image procession
fname = self.files[idx]
im = Image.open(fname)
# original image transform
trans_im = self.transform(im)
#
# im = self.data[idx]
try:
# label = int(fname.split("/")[-1].split("_")[0])
label = int(fname.split("/")[-1].split("_")[0].split("\\")[-1])
# mixup augmentation for train samples
fname1 = self.files[random.randint(0, self.__len__() - 1)]
im1 = Image.open(fname1)
trans_mix_im1 = self.transform(im1)
label1 = int(fname1.split("/")[-1].split("_")[0].split("\\")[-1])
trans_im = 0.5*trans_im + 0.5*trans_mix_im1
label = [label, label1]
except:
label = -1 # test has no label
# multiple prediction for testing samples
trans_im1 = train_tfm(im)
trans_im2 = train_tfm(im)
trans_im3 = train_tfm(im)
trans_im4 = train_tfm(im)
trans_im = torch.stack((trans_im, trans_im1, trans_im2, trans_im3, trans_im4))
return trans_im,label
loss修改
loss = criterion(logits, labels[0].to(device))
loss1 = criterion(logits, labels[1].to(device))
loss = loss + loss1
def mixup_accuracy(output, target1, target2):
"""
计算 Mixup 样本的准确率
:param output: 模型的输出,形状为 (batch_size, num_classes)
:param target1: 第一个样本的标签,形状为 (batch_size,)
:param target2: 第二个样本的标签,形状为 (batch_size,)
:return: 准确率
"""
# 计算模型对混合样本的预测结果
output = output.to(device)
target1 = target1.to(device)
target2 = target2.to(device)
_, pred_indices = output.topk(2, dim=-1)
# 取出预测结果中最大的两个值对应的索引
pred1_indices = pred_indices[:, 0] # 第一个最大值的索引
pred2_indices = pred_indices[:, 1] # 第二个最大值的索引
# 计算混合样本的准确率
acc1 = (((pred1_indices == target1) | (pred1_indices == target2))).float()
acc2 = (((pred2_indices == target1) | (pred2_indices == target2))).float()
acc = (acc1 + acc2 == 2.0).float().mean()
return acc
###Task3 交叉验证
ChatGpt告诉我这么做
```python
k = 4
kf = KFold(n_splits=k, shuffle=True, random_state=42)
for fold, (train_idx, valid_idx) in enumerate(kf.split(dataset)):
train_set = Subset(dataset, train_idx)
valid_set = Subset(dataset, valid_idx)
# Create data loaders for training and validation sets
train_loader = DataLoader(train_set, batch_size=batch_size, shuffle=True, pin_memory=True)
valid_loader = DataLoader(valid_set, batch_size=batch_size, shuffle=False, pin_memory=True)
最终结果
这一套组合拳下来,结果糟糕透了,不知道哪里出了问题!

李宏毅2022机器学习HW3 Image Classification的更多相关文章
- 李宏毅老师机器学习课程笔记_ML Lecture 3-1: Gradient Descent
引言: 这个系列的笔记是台大李宏毅老师机器学习的课程笔记 视频链接(bilibili):李宏毅机器学习(2017) 另外已经有有心的同学做了速记并更新在github上:李宏毅机器学习笔记(LeeML- ...
- 李宏毅老师机器学习课程笔记_ML Lecture 2: Where does the error come from?
引言: 最近开始学习"机器学习",早就听说祖国宝岛的李宏毅老师的大名,一直没有时间看他的系列课程.今天听了一课,感觉非常棒,通俗易懂,而又能够抓住重点,中间还能加上一些很有趣的例子 ...
- 李宏毅老师机器学习课程笔记_ML Lecture 1: ML Lecture 1: Regression - Demo
引言: 最近开始学习"机器学习",早就听说祖国宝岛的李宏毅老师的大名,一直没有时间看他的系列课程.今天听了一课,感觉非常棒,通俗易懂,而又能够抓住重点,中间还能加上一些很有趣的例子 ...
- 李宏毅老师机器学习课程笔记_ML Lecture 1: 回归案例研究
引言: 最近开始学习"机器学习",早就听说祖国宝岛的李宏毅老师的大名,一直没有时间看他的系列课程.今天听了一课,感觉非常棒,通俗易懂,而又能够抓住重点,中间还能加上一些很有趣的例子 ...
- 李宏毅老师机器学习课程笔记_ML Lecture 0-2: Why we need to learn machine learning?
引言: 最近开始学习"机器学习",早就听说祖国宝岛的李宏毅老师的大名,一直没有时间看他的系列课程.今天听了一课,感觉非常棒,通俗易懂,而又能够抓住重点,中间还能加上一些很有趣的例子 ...
- 李宏毅老师机器学习课程笔记_ML Lecture 0-1: Introduction of Machine Learning
引言: 最近开始学习"机器学习",早就听说祖国宝岛的李宏毅老师的大名,一直没有时间看他的系列课程.今天听了一课,感觉非常棒,通俗易懂,而又能够抓住重点,中间还能加上一些很有趣的例子 ...
- 李宏毅老师机器学习第一课Linear regression
机器学习就是让机器学会自动的找一个函数 学习图谱: 1.regression example appliation estimating the combat power(cp) of a pokem ...
- 基于卷积神经网络的面部表情识别(Pytorch实现)----台大李宏毅机器学习作业3(HW3)
一.项目说明 给定数据集train.csv,要求使用卷积神经网络CNN,根据每个样本的面部图片判断出其表情.在本项目中,表情共分7类,分别为:(0)生气,(1)厌恶,(2)恐惧,(3)高兴,(4)难过 ...
- Logistic回归二分类Winner or Losser----台大李宏毅机器学习作业二(HW2)
一.作业说明 给定训练集spam_train.csv,要求根据每个ID各种属性值来判断该ID对应角色是Winner还是Losser(0.1分类). 训练集介绍: (1)CSV文件,大小为4000行X5 ...
- 线性回归预测PM2.5----台大李宏毅机器学习作业1(HW1)
一.作业说明 给定训练集train.csv,要求根据前9个小时的空气监测情况预测第10个小时的PM2.5含量. 训练集介绍: (1)CSV文件,包含台湾丰原地区240天的气象观测资料(取每个月前20天 ...
随机推荐
- [转帖]TiDB 热点问题处理
TiDB 热点问题处理 本文介绍如何定位和解决读写热点问题. TiDB 作为分布式数据库,内建负载均衡机制,尽可能将业务负载均匀地分布到不同计算或存储节点上,更好地利用上整体系统资源.然而,机制不是万 ...
- [转帖]Jmeter学习笔记(二十一)——Concurrency Thread Group阶梯式加压测试
https://www.cnblogs.com/pachongshangdexuebi/p/11739064.html 一.先安装jmeter的插件管理工具 1.下载地址:jmeter-plugins ...
- [转帖]【存储测试】cosbench存储性能测试工具
一.前言 参考资料: https://blog.csdn.net/QTM_Gitee/article/details/100067724 https://github.com/intel-cloud/ ...
- [转帖]总结:SpringBoot启动参数配置
一.背景 由于项目中加了bootstrap.properties文件,且文件中有变量,如spring.cloud.config.profile=${spring.profiles.active},而b ...
- [转帖] Linux命令拾遗-软件资源观测
https://www.cnblogs.com/codelogs/p/16060443.html 原创:打码日记(微信公众号ID:codelogs),欢迎分享,转载请保留出处. 简介# 这是Linux ...
- 银河麒麟(Ubuntu)无法上网问题的解决方法
最近部门借了几台银河麒麟的服务器. 因为有特殊用途, 不允许连接互联网,所以没办法只能搭建一个小的局域网进行处理. 但是发现在搭建过程中遇到了一些坑, 之前协助同事解决odoo问题时也遇到过, 当时本 ...
- nginx 企业版与开源版本的区别
- 解决Word等打开嵌入的文件提示 包含有害内容 无法打开的问题
最近打开文件时提示: 从网上找了一下 最简单的解决办法是: 新建一个文件, 输入如下内容 导入注册表 每次打开时不进行 文件有效性的检查即可. 为了省事 我多加了几个版本的 如果是excel 将 w ...
- vue3中markRaw的使用
markRaw 作用:将一个对象标记为不可以被转化为代理对象.返回该对象本身. 应用场景: 1.有些值不应被设置成响应式时,例如复杂的第三方类库等 2.当渲染具有不可变数据源的大列表时,跳过响应式转换 ...
- 3D圆饼图,可修改颜色,图片等,具体见代码:
组件代码: <template> <!-- 饼图 --> <div :id="histogramId" v-bind:style="{hei ...