本博客是针对李宏毅教授在Youtube上上传的课程视频<ML Lecture 9-1:Tips for Training DNN>的学习笔记. 课程链接 Recipe of Deep Learning 训练集上效果差 换激活函数New activation function 自适应学习率Adaptive Learning Rate 训练集上效果好的基础上测试集上效果差 早停Early Stopping 正则化Regularization Dropout Recipe of Deep Learn
首先三个概念存在于 有监督学习的范畴 Training set: A set of examples used for learning, which is to fit the parameters [i.e., weights] of the classifier. Validation set: A set of examples used to tune the parameters [i.e., architecture, not weights] of a classifier, f
require 'torch' require 'image' local setting = {parent_root = '/home/pxu/image'} function list_children_root(path) ,{},io.popen for file_name in popen('ls -a ' .. path):lines() do i = i + then t[i-] = file_name --if i>0 then --t[i] = file_name end e
觉得有用的话,欢迎一起讨论相互学习~Follow Me 1.1 训练/开发/测试集 对于一个数据集而言,可以将一个数据集分为三个部分,一部分作为训练集,一部分作为简单交叉验证集(dev)有时候也成为验证集,最后一部分作为测试集(test).接下来我们开始对训练集执行训练算法,通过验证集或简单交叉验证集选择最好的模型.经过验证我们选择最终的模型,然后就可以在测试集上进行评估了.在机器学习的小数据量时代常见的做法是将所有数据三七分,就是人们常说的70%训练集集,30%测试集,如果设置有验证集,我们可