数据层

数据层是模型最底层,提供提供数据输入和数据从Blobs转换成别的格式进行保存输出,通常数据预处理(减去均值,放大缩小,裁剪和镜像等)也在这一层设置参数实现.

参数设置:

  • name: 名称
  • type: 类型
    • Data: 从LMDB/LEVELDB读取数据和标签, 转换(http://deepdish.io/2015/04/28/creating-lmdb-in-python/) 可以使用convert_imageset转换
    • ImageData: 直接读取图片数据
    • ....
  • top: 输出数据(和下一层的bottom一样)
  • bottom: 输入数据()
  • include: 一般训练和测试的时候,模型层不一样,由include指定在哪一层出现, TRIAN/TEST
  • transform_params: 数据预处理
  • data_params: 数据参数

    • source: 数据位置
    • backend
    • batchsize: 设置batch的大小

例如,caffe中自带的mnist example

layer {
name: "mnist" #名称
type: "Data" #输入的是LMDB数据,前面的create_mnist.sh做了转换
include: TRIAN #只在训练的时候才包括(测试没有label)
transform_param {
scale: 0.00390625 #缩放参数
}
data_param {
source: "examples/mnist/mnist_train_lmdb" #数据来源是在当前文件夹中的 mnist_train_lmdb中
backend: LMDB
batch_size: 64 #batch的大小
}
top: "data" #第一层输出data和label, 无bottom
top: "label" #
}

--------------------------------------------------------------------------------------------------------------------------------------------------

convert_imageset [FLAGS] ROOTFOLDER/  LISTFILE DB_NAME

前面我们提到数据层中Data类型输入是LMDB/LEVELDB数据,而我们有的经常是原始图片数据,而且有可能原始图片的大小还不一致,我们需要将其转换为格式一致的可输入数据,caffe中的convert_imageset 为我们提供了这样的工具。

FLAGS:图片组参数

  • -gray: 是否以灰度图的方式打开图片,程序调用opencv库中的imread()函数来打开图片,默认为false
  • -shuffle: 是否随机打乱图片顺序,默认为false
  • -backend: 需要转换成db文件格式,可选为leveldb或lmdb默认为lmdb
  • -resize_width/resize_height: 改变图片大小,需要的时候可以使得图片大小一致,程序调用opencv的resize()函数来对图片进行缩放,默认为0,不变
  • -check_size: 检查所有的数据是否有相同的尺寸,默认为false, 不检查
  • -encoded: 是否将原图片的编码放入最终的数据,默认为false
  • -encoded_type: 与前一个参数对应,将图片编码为一个格式

ROOTFOLDER: 图片存放的绝对路径,从linux系统根目录开始

LISTFILE: 图片文件列表清单,一般为一个txt文件,一行一张图片及其类别标签

DB_NAME: 最终生成的db文件存放目录

例如:

#!/usr/bin/env sh
DATA=examples/images/cropimage/ #路径变量
rm -rf $DATA/img_train_lmdb #如果文件存在,先删除再重新创建
build/tools/convert_imageset --shuffle --gray --check_size=true /home/vicent/caffe/examples/images/cropimage/ $DATA/batchfile.txt $DATA/img_train_lmdb #乱序,转换为灰度,检查大小是否一致

  

--------------------------------------------------------------------------------------------------------------------------------------------------

视觉层

卷积层

卷积的目的是提取feature

  • name: 名称
  • type: 层类型
  • bottom: 输入
  • top: 输出
  • lr_mt: 学习率速率, 最终学习率是这个数乘以solver.prototxt 配置文件中的base_lr; 如果有两个lr_mt一个表示偏置学习率,一个表示权值学习率
  • num_outputs: filter的个数
  • kernel_size: 卷积核大小
  • stride: 步长
  • pad: 边缘扩充
  • weight_filler: 权值初始化, 默认为constant, 值全为0,经常用xavier, 也可设置为gaussian
  • bias_filler: 偏置初始化方法, 一般偏置初始化方法可以不设置

例如:

layer {
name: "conv1" #名称
type: "Convolution" #层类型
bottom: "data" #上一层输入数据
top: "conv1" #这一层输出数据
param {
lr_mult: 1 #权重学习率速率
}
param {
lr_mult: 2 #偏置学习率速率
}
convolution_param {
num_output: 20 #filter的个数
kernel_size: 5 #卷积核的大小
stride: 1
weight_filler {
type: "xavier" #权重初始化方法
}
bias_filler {
type: "constant" #偏置初始化方法
}
}
}

池化层

减少数据量和数据维度

  • kernel_size:池化核大小
  • pool: 池化方法, max, ave, stochastic
  • pad:
  • stride

Normalization

 

 

[caffe]网络各层参数设置的更多相关文章

  1. caffe 网络参数设置

    weight_decay防止过拟合的参数,使用方式: 样本越多,该值越小 模型参数越多,该值越大 一般建议值: weight_decay: 0.0005 lr_mult, decay_mult 关于偏 ...

  2. caffe fine tune 复制预训练model的参数和freeze指定层参数

    复制预训练model的参数,只需要重新copy一个train_val.prototxt.然后把不需要复制的层的名字改一下,如(fc7 -> fc7_new),然后fine tune即可. fre ...

  3. c++ caffe 输出 activation map 、 层参数

    python输出activation map与层参数:https://blog.csdn.net/tina_ttl/article/details/51033660 caffe::Net文档: htt ...

  4. Caffe的Solver参数设置

    Caffe的solver参数设置 http://caffe.berkeleyvision.org/tutorial/solver.html solver是通过协调前向-反向传播的参数更新来控制参数优化 ...

  5. caffe(2) 数据层及参数

    要运行caffe,需要先创建一个模型(model),如比较常用的Lenet,Alex等, 而一个模型由多个屋(layer)构成,每一屋又由许多参数组成.所有的参数都定义在caffe.proto这个文件 ...

  6. (原)torch中微调某层参数

    转载请注明出处: http://www.cnblogs.com/darkknightzh/p/6221664.html 参考网址: https://github.com/torch/nn/issues ...

  7. caffe的cancat层

    我在训练Goolenet inception-v3时候出现了concat错误,因此写下concat层的一些知识点,以供读者跳坑 concat层在inception-v3网络中存在非常明显,之所以需要c ...

  8. 【转载】 Caffe BN+Scale层和Pytorch BN层的对比

    原文地址: https://blog.csdn.net/elysion122/article/details/79628587 ------------------------------------ ...

  9. C3p0的参数设置

    C3p0的参数设置:ComboPooledDataSource和BasicDataSource一样提供了一个用于关闭数据源的close()方法,这样我们就可以保证Spring容器关闭时数据源能够成功释 ...

随机推荐

  1. Project Euler 19 Counting Sundays( 蔡勒公式计算星期数 )

    题意:在二十世纪(1901年1月1日到2000年12月31日)中,有多少个月的1号是星期天? 蔡勒公式:计算 ( year , month , day ) 是星期几 以下图片仅供学习! /****** ...

  2. P1828 香甜的黄油 Sweet Butter (spfa)

    题目描述 农夫John发现做出全威斯康辛州最甜的黄油的方法:糖.把糖放在一片牧场上,他知道N(1<=N<=500)只奶牛会过来舔它,这样就能做出能卖好价钱的超甜黄油.当然,他将付出额外的费 ...

  3. [USACO08FEB]修路Making the Grade 动态规划

    对的\(n^3\)的程序调了一个月了,惊了... HSZ学oi\(\Longleftrightarrow\)闭眼学oi 要不是翻旧账还看不见.. 这是有\(n^2\)做法的. 参见LYD的书P244 ...

  4. hive 自定义函数(udf)

    1.解压hive的压缩包 2.新建java项目,将hive压缩包里面lib文件夹的jar包导入新建的项目 3.编写java程序 package udfdemo; import org.apache.h ...

  5. redis 五大数据类型

    一.String set : 添加数据 get : 获得指定 key 的 value del : 删除指定 key append : 往字符串后面添加       append k1 12345    ...

  6. BA-siemens-insight使用问题汇总

    insight安装完成后不要修改windows时间 1.如果在完成软件安装及授权后,更改了系统的时间,则软件会判断您电脑的时间已经更改,软件将无法启动,所以在软件完成正确安装后,禁止修改系统时间.更改 ...

  7. SQL-Oracle-创建表空间,用户,授权

    --创建表空间 create tablespace imark datafile 'E:\oracle\product\10.2.0\oradata\orcl\imark.dbf' size 500M ...

  8. Spring使用HibernateDaoSupport操作数据

    spring提供了一个数据訪问层的类:org.springframework.orm.hibernate3.support.HibernateDaoSupport.一般是让 dao继承该类,然后在da ...

  9. leetCode(32):Power of Two

    Given an integer, write a function to determine if it is a power of two. 2的幂的二进制表示中,必定仅仅有一个"1&q ...

  10. hdoj--1166--敌兵布阵(线段树)

    敌兵布阵 Time Limit: 2000/1000 MS (Java/Others)    Memory Limit: 65536/32768 K (Java/Others) Total Submi ...