Caffe solver.prototxt学习
在solver解决下面的四个问题:
a.训练的记录(bookkeeping),创建用于training以及test的网络结构;
b.使用前向以及反向过程对training网络参数学习的过程;
c.对testing网络进行评价;
d.优化过程中模型中间结果的快照及求解的状态;
下面从这个四个方面介绍solver.prototxt文件中常见参数的含义:
1.net,type;base_lr,lr_polilcy
net: 用于声明training 以及test的网络结构定义在哪个文件中,所以它是一个文件名,一般用caffe的相对路径。这个还可以分开用train_net以及test_net,相当于在两个文件中分别给出了训练以及测试网络的结构定义。
type:solver的类型。深度网络的目标函数一般是非凸的,一般用基于梯度下降的方法来解。caffe中支持的基于梯度的方法包括: SGD(default),AdaDelt,AdaGrad,Adam,NAG.每个方法需要设定不同的参数,这里首先分析SGD的参数:
base_lr:学习率(learning rate),也就是梯度算法中的步长,这个是最初的步长。
lr_policy: 按照某种方式对梯度算法中的步长进行更新;包含下面的方式:fixed,step,exp,inv,multistep,poly,sigmoid对这些的详细描述可以参考这个很赞的blog. 这里描述常用的基于迭代次数的方式:step。她根据iter对步长进行更新,这种方式还对应一个stepsize参数,它的值是一个整数,表示stepsize次迭代对步长进行一次更新;公式为base_lr*gamma^(iter/stepsize)
gamma:这个参数就是在上面的公式中更新学习率的公式中用到的参数,要注意的是不同的方式有不同参数,有些方法中可能不存在这个参数。
momentum(mu):它表示的是本次更新权重用的梯度对上一次梯度的保留的比例。
2.max_iter,display,weight_decay
max_iter:这个表示网络前向以及后向学习算法的次数。
display: 参数是一个整数,表明多少次对结果进行一此展示。如果设为0就不会打印。
weight_decay:权重正则项的参数,它是为了防止模型的过拟。通常而言,一般样本越多,值越小;模型越大(更深,滤波器尺寸越大等),值越大。
3.test_iter, test_interval:
test_iter:测试网络中测试的时候所用的batch数,一般保证test_iter*batch>测试样本数;
test_interval:每隔多少个iter对测试网络进行一个评价。
4.snapshot,snapshot_prefix.
snapshot:多少个iter保存一次网络的快照,这个有利于resume;
snapshot_prefix:快照存储的位置以及名称。
还可以设置snapshot_diff,snapshot_format.是否保存梯度值以及保存的类型。
Reference
[1]http://www.cnblogs.com/denny402/p/5074049.html
[2]http://stackoverflow.com/questions/32177764/what-is-weight-decay-meta-parameter-in-caffe?noredirect=1&lq=1
[3]http://caffe.berkeleyvision.org/tutorial/solver.html
Caffe solver.prototxt学习的更多相关文章
- caffe solver.prototxt 生成
from caffe.proto import caffe_pb2 s = caffe_pb2.SolverParameter() path='/home/xxx/data/' solver_file ...
- 4.caffe:train_val.prototxt、 solver.prototxt 、 deploy.prototxt( 创建模型与编写配置文件)
一,train_val.prototxt name: "CIFAR10_quick" layer { name: "cifar" type: "Dat ...
- caffe之solver.prototxt文件参数设置
caffe solver参数意义与设置 batchsize:每迭代一次,网络训练图片的数量,例如:如果你的batchsize=256,则你的网络每迭代一次,训练256张图片:则,如果你的总图片张数为1 ...
- caffe 参数介绍 solver.prototxt
转载自 http://blog.csdn.net/cyh_24/article/details/51537709 solver.prototxt net: "models/bvlc_alex ...
- caffe源码学习之Proto数据格式【1】
前言: 由于业务需要,接触caffe已经有接近半年,一直忙着阅读各种论文,重现大大小小的模型. 期间也总结过一些caffe源码学习笔记,断断续续,这次打算系统的记录一下caffe源码学习笔记,巩固一下 ...
- caffe solver 配置详解
caffe solver通过协调网络前向推理和反向梯度传播来进行模型优化,并通过权重参数更新来改善网络损失求解最优算法,而solver学习的任务被划分为:监督优化和参数更新,生成损失并计算梯度.caf ...
- caffe源码学习
本文转载自:https://buptldy.github.io/2016/10/09/2016-10-09-Caffe_Code/ Caffe简介 Caffe作为一个优秀的深度学习框架网上已经有很多内 ...
- caffe solver configuration
(用到一个加一个, 并非完整的介绍) lr_policy 基本的learning rate 在solver.prototxt中由参数base_lr配置. 配合lr_policy和其余的一些参数制定le ...
- 【转】贾扬清:希望Caffe成为深度学习领域的Hadoop
[转:http://www.csdn.net/article/2015-07-07/2825150] 在深度学习(Deep Learning)的热潮下,Caffe作为一个高效.实用的深度学习框架受到了 ...
随机推荐
- jquery 获取及设置input各种类型的值
获取选中的值 获取一组radio被选中项的值 var item = $(“input[@name=items]:checked”).val(); 获取select被选中项的文本 var item = ...
- java是值传递,还是引用传递?
原文地址:http://blog.csdn.net/zxmzfbdc/article/details/5401960 java到底是值传递,还是引用传递?以前国内的java开发者有过很多争论,由于& ...
- IM系统中如何保证消息的可靠投递(即QoS机制)
消息的可靠性,即消息的不丢失和不重复,是im系统中的一个难点.当初qq在技术上(当时叫oicq)因为以下两点原因才打败了icq:1)qq的消息投递可靠(消息不丢失,不重复)2)qq的垃圾消息少(它 ...
- 何使用ultraiso软碟通制作u盘启动盘(转载)
现在很多网友都不知道如何用UltraISO软件来制作制作u盘启动盘,那么今天U大师小编就来给大家简单的介绍两种方法,首先第一种方法就是网友要到网上下载一个UltraISO软件,这个网上有很多的 ...
- javaee字节流文件复制
package Zy; import java.io.FileInputStream; import java.io.FileNotFoundException; import java.io.Fil ...
- 将JavaBean对象/List或Set或Map对象转成JSON方式
一.通过Struts2插件包(即使用Struts框架)自动生成JSON文本 二.使用第三方工具,将JavaBean对象/List或Set或Map对象转成JSON 准备导入第三方jar包: >c ...
- vim利器:vundle 管理器和NERDTree插件
vundle 和nerdtree vundle git: https://github.com/VundleVim/Vundle.vim.git nerdtree git : https://gith ...
- C语言基础 (5) 常用操作符
01 课程回顾 变量的起名:字母数字下划线 不能是关键字 常量 变量提升:老的编译器这样会报错 运算符:sizeof.+.-.x … … 进制: 1111 8421 计算机几乎都是二进制系统,而且是以 ...
- [51nod1074] 约瑟夫问题 V2
毫无思路,Orz了一下大佬的思路%%%. 大概就是因为k比n小的多,我们知道约瑟夫环有个公式是fn=(fn-1+k) mod n 可以改一下,改成fn+p=(fn+pk) mod (n+p) 但是这样 ...
- C#常用 API函数大全
常用Windows API1. API之网络函数WNetAddConnection 创建同一个网络资源的永久性连接WNetAddConnection2 创建同一个网络资源的连接WNetAddConne ...