新手入门PaddlePaddle的一个简单Demo——猫狗大战

主要目的在于整体了解PP用卷积做图像分类的流程,以及最最重要的掌握自定义数据集的读取方式

猫狗数据集是从网络上下载到工作目录的。

本项目源地址

import warnings
warnings.filterwarnings('ignore')
import imghdr # 判断图片格式用的
import random
import seaborn as sns
from time import time
import paddle.fluid as fluid
import paddle
import numpy as np
from PIL import Image
import os
from multiprocessing import cpu_count
import matplotlib.pyplot as plt
crop_size = 300       # 剪切尺寸,最后图片的size是这个值,不是resize_size
resize_size = 320
is_color = True # 是否加载彩色图
USE_GPU = True # 是否使用GPU
BUF_SIZE = 528
BATCH_SIZE = 128 # 每批次图片数量
EPOCH = 20 # 训练次数

生成图像列表

data_path_cat = '/home/aistudio/work/catdog/PetImages/Cat'
data_path_dog = '/home/aistudio/work/catdog/PetImages/Dog'
data_path = [data_path_cat, data_path_dog]
train_img_num = 0
test_img_num = 0
with open('./train_data.list', 'w') as f_train:
with open('./test_data.list', 'w') as f_test:
for label,path in enumerate(data_path):
data_imgs = os.listdir(path)
for i in range(len(data_imgs)):
try:
img_path = os.path.join(path, data_imgs[i]) # 合成路径
img_type = imghdr.what(img_path) # 获取图片类型
if (img_type=='jpeg')|(img_type=='jpg'): # jpeg/jpg格式图片保存
img_arr = np.array(Image.open(img_path)) # 获取图片数据形式
if len(img_arr.shape) != 2: # 非彩色图不要
if i % 10 == 0:
test_img_num += 1
f_test.write(img_path + "\t" + str(label) + '\n')
else:
train_img_num += 1
f_train.write(img_path + "\t" + str(label) + '\n')
except:
pass
print('图像列表已生成。')
print(f'训练图片{train_img_num}张,测试图片{test_img_num}张。')
图像列表已生成。
训练图片22256张,测试图片2473张。

定义读取数据

PaddlePaddle读取训练和测试数据都是通过reader来读取的,所以我们要自定义一个reader。首先我们定义一个train_mapper()函数,这个函数是对图片进行预处理的。比如通过 paddle.dataset.image.simple_transform接口对图片进行压缩然后裁剪,和灰度化,当参数is_trainTrue时就会随机裁剪,否则为中心裁剪,一般测试和预测都是中心裁剪。train_r()函数是从上一部分生成的图像列表中读取图片路径和标签,然后把图片路径传递给train_mapper()函数进行预处理。同样的测试数据也是相同的操作。

def train_mapper(sample): # 映射器
img, label = sample
img = paddle.dataset.image.load_image(file=img, is_color=is_color) # 加载file路径下彩色或者灰色图像
img = paddle.dataset.image.simple_transform(im=img,
resize_size=resize_size, crop_size=crop_size,
is_color=is_color, is_train=True) # 简单的图像变换
img = img.astype('float32') / 255.0
return img,label def train_r(train_list_path): # 这种函数里面定义函数的现象好像叫做闭包,有兴趣可以百度一下
def reader():
with open(train_list_path, 'r') as f:
lines = f.readlines()
random.shuffle(lines) # 非常重要,对模型影响很大
for line in lines:
img, label = line.split('\t') # 分离路径和标签
yield img, int(label) # 构建生成器
return paddle.reader.xmap_readers(train_mapper,reader,cpu_count(),256) # 数据映射
# xmap_readers(): 通过多线程方式,通过用户自定义的映射器mapper来映射reader返回的样本(到输出队列)。
# 映射我清楚什么意思,但是我猜可能是从保存图像路径的集合中加载出每个路径对应的经过简单变化的图像数据
# mapper(callable) - 一种映射reader数据的函数。
# reader(callable) - 产生数据的reader。
# process_num(int) - 用于处理样本的线程数目。
# buffer_size(int) - 存有待读取数据的队列的大小。
# 个人理解:reader返回的是图像的路径以及标签的生成器,对这些返回值经过train_mapper函数映射出图像数据 def test_mapper(sample): # sample估计就是reader返回的img,label
img, label = sample
img = paddle.dataset.image.load_image(file=img, is_color=is_color)
img = paddle.dataset.image.simple_transform(im=img,
resize_size=resize_size, crop_size=crop_size,
is_color=is_color, is_train=False)
img = img.astype('float32') / 255.0
return img, label def test_r(test_list_path):
def reader():
with open(test_list_path, 'r') as f:
lines = f.readlines()
random.shuffle(lines)
for line in lines:
img, label = line.split('\t')
yield img, int(label)
return paddle.reader.xmap_readers(test_mapper, reader, cpu_count(), 256)

定义卷积神经网络

def cnn(ipt):

    # 第一个卷积-池化层
conv_pool_1 = fluid.nets.simple_img_conv_pool(
input=ipt, # 输入图像
filter_size=5, # 滤波器的大小
num_filters=20, # filter 的数量。它与输出的通道相同
pool_size=2, # 池化核大小2*2
pool_stride=2, # 池化步长
act="relu") # 激活类型
conv_pool_1 = fluid.layers.batch_norm(conv_pool_1)
# 第二个卷积-池化层
conv_pool_2 = fluid.nets.simple_img_conv_pool(
input=conv_pool_1,
filter_size=5,
num_filters=50,
pool_size=2,
pool_stride=2,
act="relu")
conv_pool_2 = fluid.layers.batch_norm(conv_pool_2)
# 第三个卷积-池化层
conv_pool_3 = fluid.nets.simple_img_conv_pool(
input=conv_pool_2,
filter_size=5,
num_filters=50,
pool_size=2,
pool_stride=2,
act="relu")
# 以softmax为激活函数的全连接输出层,10类数据输出10个数字
prediction = fluid.layers.fc(input=conv_pool_3, size=2, act='softmax') return prediction

获取网络

通过上面定义的卷积神经网络获取一个分类器,网络的输入层是通过fluid.layers.data()接口定义的,例如输入的形状为[1,128,128],表示单通道,宽度和高度都是28的图。

c = 3 if is_color else 1
image = fluid.layers.data(name='image', shape=[c,crop_size,crop_size], dtype='float32')
net = cnn(image)

定义损失函数

使用交叉熵函数,fluid.layers.cross_entropy,还是用了fluid.layers.accuracy接口,方便在训练和测试时输出平均值。

label = fluid.layers.data(name='label', shape=[1], dtype='int64') # 训练数据标签
cost = fluid.layers.cross_entropy(input=net, label=label) # 传入网络和对应标签,一个batch的损失值
avg_cost = fluid.layers.mean(cost) # 对一个batch的损失值求得平均值
acc = fluid.layers.accuracy(input=net, label=label)

克隆测试程序

在定义损失之后和定义优化方法之前从主程序中克隆一个测试程序

test_program = fluid.default_main_program().clone(for_test=True)

定义优化方法

使用Adam优化方法

optimizer = fluid.optimizer.AdamOptimizer(learning_rate=0.001)
opt = optimizer.minimize(avg_cost) # 通过优化方法不断使avg_cost尽量小

创建执行器

place = fluid.CUDAPlace(0) if USE_GPU else fluid.CPUPlace() # 使用CPU执行训练
exe = fluid.Executor(place)
exe.run(fluid.default_startup_program())
[]

把图片数据生成reader

把上面定义的reader按照设置的大小得到每一个batch的reader

train_reader = paddle.batch( # 此操作创建一个分批读取器,该成批读取器将输入读取器中的数据组合到成批数据中。
# 多以说train_reader是一个读取器
reader=paddle.reader.shuffle( # 创建一个经过装饰的读取器
reader=train_r('./train_data.list'),
buf_size=BUF_SIZE),
batch_size=BATCH_SIZE) # 训练数据每BATCH_SIZE张照片为一个批次 test_reader = paddle.batch(
reader=paddle.reader.shuffle(
reader=test_r('./test_data.list'),
buf_size=BUF_SIZE),
batch_size=BATCH_SIZE)

定义输入数据的维度

第一个是图片数据,第二个是标签

feeder = fluid.DataFeeder(place=place, feed_list=[image, label])

开始训练

在每一个Pass训练完之后都使用测试集数据测试一下模型准确率。

training_costs = []
training_accs = []
testing_costs = []
testing_accs = []
start = time()
for pass_id in range(1,EPOCH+1):
train_costs, train_accs = [], []
for batch_id, data in enumerate(train_reader()):
train_cost, train_acc = exe.run(
program=fluid.default_main_program(),
feed=feeder.feed(data),
fetch_list=[avg_cost, acc])
train_costs.append(train_cost)
train_accs.append(train_acc)
training_costs.append(train_cost)
training_accs.append(train_acc)
train_cost = sum(train_costs) / len(train_costs)
train_acc = sum(train_accs) / len(train_accs)
# print("Pass:%d\tTrain_cost:%.5f\tAccuracy:%.5f" % (pass_id, train_cost, train_acc)) # 每批次结束时输出 test_costs, test_accs = [], []
for batch_id, data in enumerate(test_reader()):
test_cost, test_acc = exe.run(
program=test_program,
feed=feeder.feed(data),
fetch_list=[avg_cost, acc])
test_costs.append(test_cost)
test_accs.append(test_acc)
testing_costs.append(test_cost)
testing_accs.append(test_acc)
test_cost = sum(test_costs) / len(test_costs)
test_acc = sum(test_accs) / len(test_accs) print("\nPass:%d \tTrain_cost:%.5f\tTrain_acc:%.5f\tTest_cost:%.5f\tTest_acc:%.5f\n"
%(pass_id,train_cost,train_acc,test_cost,test_acc))
end = time()
Pass:1 	Train_cost:1.80947	Train_acc:0.58116	Test_cost:0.61831	Test_acc:0.64787

Pass:2 	Train_cost:0.63346	Train_acc:0.66226	Test_cost:0.58241	Test_acc:0.71032

Pass:3 	Train_cost:0.56434	Train_acc:0.71170	Test_cost:0.53824	Test_acc:0.72857

Pass:4 	Train_cost:0.52023	Train_acc:0.74307	Test_cost:0.47614	Test_acc:0.77935

Pass:5 	Train_cost:0.49171	Train_acc:0.76639	Test_cost:0.48825	Test_acc:0.77423

Pass:6 	Train_cost:0.45704	Train_acc:0.78754	Test_cost:0.41720	Test_acc:0.81207

Pass:7 	Train_cost:0.42528	Train_acc:0.80819	Test_cost:0.39377	Test_acc:0.82823

Pass:8 	Train_cost:0.40764	Train_acc:0.81685	Test_cost:0.38794	Test_acc:0.82759

Pass:9 	Train_cost:0.38059	Train_acc:0.83253	Test_cost:0.34883	Test_acc:0.85167

Pass:10 	Train_cost:0.35983	Train_acc:0.84485	Test_cost:0.37238	Test_acc:0.83126

Pass:11 	Train_cost:0.34370	Train_acc:0.85182	Test_cost:0.33813	Test_acc:0.85684

Pass:12 	Train_cost:0.33027	Train_acc:0.86123	Test_cost:0.29966	Test_acc:0.87711

Pass:13 	Train_cost:0.30136	Train_acc:0.87309	Test_cost:0.28069	Test_acc:0.87984

Pass:14 	Train_cost:0.30478	Train_acc:0.87161	Test_cost:0.29137	Test_acc:0.87901

Pass:15 	Train_cost:0.29061	Train_acc:0.87896	Test_cost:0.30017	Test_acc:0.87369

Pass:16 	Train_cost:0.27127	Train_acc:0.88819	Test_cost:0.26217	Test_acc:0.89092

Pass:17 	Train_cost:0.26203	Train_acc:0.89054	Test_cost:0.24602	Test_acc:0.89326

Pass:18 	Train_cost:0.24977	Train_acc:0.90027	Test_cost:0.28517	Test_acc:0.88028

Pass:19 	Train_cost:0.24926	Train_acc:0.89830	Test_cost:0.26093	Test_acc:0.88975

Pass:20 	Train_cost:0.23507	Train_acc:0.90277	Test_cost:0.24906	Test_acc:0.89268
print(f"用时{end-start}s")
用时1483.9844856262207s
training_costs = [x[0] for x in training_costs]
training_accs = [x[0] for x in training_accs]
testing_costs = [x[0] for x in testing_costs]
testing_accs = [x[0] for x in testing_accs]
plt.figure(figsize=(16,10))
plt.subplot(221)
plt.title('train_cost')
sns.lineplot(x=list(range(1,1+len(training_costs))),y=training_costs)
plt.subplot(222)
plt.title('train_acc')
sns.lineplot(x=list(range(1,1+len(training_accs))),y=training_accs,color='r')
plt.subplot(223)
plt.title('test_cost')
sns.lineplot(x=list(range(1,1+len(testing_costs))),y=testing_costs,color='c')
plt.subplot(224)
plt.title('test_acc')
sns.lineplot(x=list(range(1,1+len(testing_accs))),y=testing_accs,color='k')

保存模型

save_model_dir = "./model/Cat&Dog"
if not os.path.exists(save_model_dir):
os.makedirs(save_model_dir)
print(f"Saved model to {save_model_dir}") ## 保存模型到指定目录
fluid.io.save_inference_model(dirname=save_model_dir,
feeded_var_names=['image'], # 字符串列表,预测期间需要喂入的数据变量名称
target_vars=[net], # 变量列表,从net中我们可以得到推理结果
executor=exe) # 保存模型的推理程序
Saved model to ./model/Cat&Dog
['save_infer_model/scale_0']


## 加载模型并预测

```python
## 构建测试用的执行器
infer_exe = fluid.Executor(place)
## 指定作用域
inference_scope = fluid.core.Scope()
with fluid.scope_guard(scope=inference_scope):
# load model
save_model_dir = "./model/Cat&Dog"
[inference_program, # 预测程序
feed_target_names, # 需要在推理时提供的数据名称 字符串列表
fetch_targets] = fluid.io.load_inference_model( # 从fetch_traget中可以得到预测结果 变量列表
dirname=save_model_dir, executor=infer_exe)
infer_reader = paddle.batch(reader=paddle.reader.shuffle(
reader=test_r('./test_data.list'),
buf_size=BUF_SIZE),
batch_size=BATCH_SIZE)
all_result = [] # 保存测试结果
test_y = [] # 保存真实标签
for data in infer_reader():
test_x = np.array([x[0] for x in data]).astype("float32") # 提取图片数据
test_y.append([x[1] for x in data]) # 提取图片标签
result = infer_exe.run(program=inference_program,
feed={feed_target_names[0]:test_x},
fetch_list=fetch_targets)
all_result.append(result[0])
## 整理预测结果和真实标签成一维numpy.ndarray
infer_lab = np.array([np.argmax(x) for batch in all_result for x in batch]).astype("int32")
true_lab = np.array([x for batch in test_y for x in batch]).astype("int32")
print(f"预测准确率为:{sum(infer_lab==true_lab)/len(true_lab)}")
预测准确率为:0.8940558026688233

网上随便下载数据预测

def load_img(img):
img = paddle.dataset.image.load_image(file=img, is_color=is_color)
img = paddle.dataset.image.simple_transform(im=img,
resize_size=resize_size, crop_size=crop_size,
is_color=is_color, is_train=False)
img = img.astype('float32') / 255.0
return img
place = fluid.CPUPlace()
infer_exe = fluid.Executor(place)
inference_scope = fluid.core.Scope()
with fluid.scope_guard(scope=inference_scope):
[inference_program,
feed_target_names,
fetch_targets] = fluid.io.load_inference_model(
dirname="./model/Cat&Dog", executor=infer_exe) test_imgs_dir = './work/catdog/test_imgs'
img_data,label,img_paths = [],[],[]
for img_name in os.listdir(test_imgs_dir):
label.append(0 if 'cat' in img_name else 1)
img_path = os.path.join(test_imgs_dir, img_name)
img_paths.append(img_path)
img_data.append(load_img(img_path))
img_data = np.array(img_data).astype("float32") result = infer_exe.run(program=inference_program,
feed={feed_target_names[0]:img_data},
fetch_list=fetch_targets)
infer_label = [np.argmax(x) for x in result[0]]
plt.figure(figsize=(15,9))
for i in range(len(infer_label)):
plt.subplot(3,5,i+1)
plt.title(f"INFER:{infer_label[i]} TRUE:{label[i]}")
plt.imshow(np.array(Image.open(img_paths[i])))
plt.show()

PaddlePaddle之猫狗大战(本地数据集)的更多相关文章

  1. 基于pytorch实现Resnet对本地数据集的训练

    本文是使用pycharm下的pytorch框架编写一个训练本地数据集的Resnet深度学习模型,其一共有两百行代码左右,分成mian.py.network.py.dataset.py以及train.p ...

  2. 如何用Jupyter notebook打开本地数据集

    首先打开本地Jupyter notebook,出现类似页面并进入网页端Home. 网页端界面类似如下: 需要注意的是,Jupyter notebook只能打开当前目录下的数据集,如csv,所以需要使用 ...

  3. [TensorFlow2.0]-Fashion-MNIST本地数据集及fit_generator()的使用

    本人人工智能初学者,现在在学习TensorFlow2.0,对一些学习内容做一下笔记.笔记中,有些内容理解可能较为肤浅.有偏差等,各位在阅读时如有发现问题,请评论或者邮箱(右侧边栏有邮箱地址)提醒. 若 ...

  4. paddlepaddle实现猫狗分类

    目录 1.预备工作 1.1 数据集准备 1.2 数据预处理 2.训练 2.1 模型 2.2 定义训练 2.3 训练 3.预测 4.参考文献 声明:这是我的个人学习笔记,大佬可以点评,指导,不喜勿喷.实 ...

  5. py4CV例子1猫狗大战和Knn算法

    1.什么是猫狗大战: 数据集来源于Kaggle(一个为开发商和数据科学家提供举办机器学习竞赛.托管数据库.编写和分享代码的平台),原数据集有12500只猫和12500只狗,分为训练.测试两个部分. 2 ...

  6. 解决Sklearn中使用数据集MNIST无法获取的问题(WinError 10060)

    今天在学习PCA的时候,使用mnist数据集遇到一个问题,代码是这样的: import numpy as np from sklearn.datasets import fetch_mldata mn ...

  7. Newsgroups数据集研究

    1.数据集介绍 20newsgroups数据集是用于文本分类.文本挖据和信息检索研究的国际标准数据集之一. 数据集收集了大约20,000左右的新闻组文档,均匀分为20个不同主题的新闻组集合. 一些新闻 ...

  8. 如何使用keras加载下载好的数据集

    https://blog.csdn.net/houchaoqun_xmu/article/details/78492718 [keras]解决 example 案例中 MNIST 数据集下载不了的问题 ...

  9. 使用EdgyGeo Cesium工具查询下载数据集

    Cesium中文网:http://cesiumcn.org/ | 国内快速访问:http://cesium.coinidea.com/ EdgyGeo, Inc. 带来了一件非常棒的工作支撑架构.工程 ...

随机推荐

  1. Docker单机网络上

    前言 Docker系列文章: 此篇是Docker系列的第六篇,大家一定要按照我做的Demo都手敲一遍,印象会更加深刻的,加油! 为什么要学习Docker Docker基本概念 Docker镜像基本原理 ...

  2. java:编写jar包加密工具,防止反编译

    懒人方案 网盘: 链接:https://pan.baidu.com/s/1x4OB1IF2HZGgtLhd1Kr_AQ提取码:glx7 网盘内是已生成可用工具,下载可以直接使用,使用前看一下READ. ...

  3. 长按短按控制LED灯-ESP32中断处理

    #include <stdio.h> #include <string.h> #include <stdlib.h> #include "freertos ...

  4. 【重学Java】多线程进阶(线程池、原子性、并发工具类)

    线程池 线程状态介绍 当线程被创建并启动以后,它既不是一启动就进入了执行状态,也不是一直处于执行状态.线程对象在不同的时期有不同的状态.那么Java中的线程存在哪几种状态呢?Java中的线程 状态被定 ...

  5. python mysql类

    import pymysql class MysqlHelper(object): conn = None def __init__(self, host, username, password, d ...

  6. python twain模块

    >>> help(twain) Help on module twain: NAME twain - Created on Sep 4, 2011 DESCRIPTION @auth ...

  7. LeetCode 887. Super Egg Drop

    题目链接:https://leetcode.com/problems/super-egg-drop/ 题意:给你K个鸡蛋以及一栋N层楼的建筑,已知存在某一个楼层F(0<=F<=N),在不高 ...

  8. Easyui动态添加控件无法渲染 $.parser.parse()无效

    本文链接:https://blog.csdn.net/huangbaokang/article/details/78367553动态添加easyui控件<input class="ea ...

  9. python基础之列表推导式

    #列表推导式 ---> 返回的是列表 for语句 效率更高# 1*1 2*2 3*3 4*4 5*5 6*6 7*7 8*8 9*9# import time# to = time.clock( ...

  10. 分别在Update和FixedUpdate使用GetKeyDown

    测试目的 探究分别在Update和FixedUpdate使用GetKeyDown执行次数,会不同的 测试开始 在Update测试 我们先在Update测试,很正常是一帧重置一下状态,以防止点击一下执行 ...