caffe特征可视化的代码例子

不少读者看了我前面两篇文章

总结一下用caffe跑图片数据的研究流程

deep learning实践经验总结2--准确率再次提升,到达0.8。再来总结一下

之后。想知道我是怎么实现特征可视化的。

简单来说,事实上就是让神经网络正向传播一次。然后把某层的特征值给取出来。然后转换为图片保存。

以下我提供一个demo,大家能够依据自己的需求改动。

先看看我的demo的用法。

visualize_features.bin net_proto pretrained_net_proto iterations  [CPU/GPU]  img_list_file dstdir laydepth

visualize_features.bin是cpp编译出来的可运行文件

以下看看各參数的意义:

1 net_proto:caffe规定的一种定义网络结构的文件格式,后缀名为".prototxt"。

这个文件定义了网络的输入,已经相关參数,还有就是总体的网络结构。

2 pretrained_net_proto:这个是已经训练好了的模型

3 iterations:迭代次数

4 [CPU/GPU]:cpu还是gpu模式

5 img_list_file:待測试的文件名称列表。我这里须要这个主要是为了得到图片的类名。

6 dstdir:图片输出的目录

7 laydepth:须要输出哪一层的特征

以下是一个实例样例:

./visualize_features.bin /home/linger/linger/caffe-action/caffe-master/examples/cifar10/cifar10_full_test.prototxt /home/linger/linger/caffe-action/caffe-master/examples/cifar10/cifar10_full_iter_60000
20 GPU /home/linger/linger/testfile/skirt_test_attachment/image_filename /home/linger/linger/testfile/innerproduct/ 7

以下是源码:

// Copyright 2013 Yangqing Jia
//
// This is a simple script that allows one to quickly test a network whose
// structure is specified by text format protocol buffers, and whose parameter
// are loaded from a pre-trained network.
// Usage:
// test_net net_proto pretrained_net_proto iterations [CPU/GPU] #include <cuda_runtime.h>
#include <fstream>
#include <iostream>
#include <cstring>
#include <cstdlib>
#include <algorithm>
#include <vector>
#include <utility>
#include "caffe/caffe.hpp"
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/highgui/highgui_c.h>
#include <opencv2/imgproc/imgproc.hpp> using std::make_pair;
using std::pair;
using namespace caffe; // NOLINT(build/namespaces)
using namespace std; vector<string> fileNames;
char * filelist; /*
* 读入的文件的内容格式相似这样子的:全局id 类名_所在类的id.jpg
0 一步裙_0.jpg
1 一步裙_1.jpg
2 一步裙_10.jpg
*/
void readFile()
{
if(fileNames.empty())
{
ifstream read(filelist);
//"/home/linger/linger/testfile/test_attachment/image_filename"
// "/home/linger/imdata/test_files_collar.txt"
// "/home/linger/linger/testfile/testfilename"
if(read.is_open())
{
while(!read.eof())
{
string name;
int id;
read>>id>>name;
fileNames.push_back(name);
}
}
}
} /*
* 依据图片id获取类名
*/
string getClassNameById(int id)
{
readFile();
int index = fileNames[id].find_last_of('_') ;
return fileNames[id].substr(0, index);
} void writeBatch(const float* data,int num,int channels,int width,int height,int startID,const char*dir)
{
for(int id = 0;id<num;id++)
{
for(int channel=0;channel<channels;channel++)
{
cv::Mat mat(height,width, CV_8UC1);//高宽
vector<vector<float> > vec;
vec.resize(height);
float max = -1;
float min = 999999;
for(int row=0;row<height;row++)
{
vec[row].resize(width);
for(int col=0;col<width;col++)
{
vec[row][col] =
data[id*channels*width*height+channel*width*height+row*width+col];
if(max<vec[row][col])
{
max = vec[row][col];
}
if(min>vec[row][col])
{
min = vec[row][col];
} }
} for(int row=0;row<height;row++)
{
for(int col=0;col<width;col++)
{
vec[row][col] = 255*((float)(vec[row][col]-min))/(max-min);
uchar& img = mat.at<uchar>(row,col);
img= vec[row][col]; }
}
char filename[100];
string label = getClassNameById(startID+id);
string file_reg =dir;
file_reg+="%s%05d_%05d.png";
snprintf(filename, 100, file_reg.c_str(), label.c_str(),startID+id,channel);
//printf("%s\n",filename);
cv::imwrite(filename, mat);
} }
} int main(int argc, char** argv)
{
if (argc < 4)
{
LOG(ERROR) << "visualize_features.bin net_proto pretrained_net_proto iterations "
<< "[CPU/GPU] img_list_file dstdir laydepth";
return 0;
}
/* ./visualize_features.bin /home/linger/linger/caffe-action/caffee-ext/Caffe_MM/prototxt/triplet/triplet_test_simple.prototxt /home/linger/linger/caffe-action/caffee-ext/Caffe_MM/snapshorts/_iter_100000 8 GPU /home/linger/linger/testfile/test_attachment/image_filename /home/linger/linger/testfile/innerproduct/ 6 */ filelist = argv[5];
cudaSetDevice(0);
Caffe::set_phase(Caffe::TEST); if (argc == 5 && strcmp(argv[4], "GPU") == 0)
{
LOG(ERROR) << "Using GPU";
Caffe::set_mode(Caffe::GPU);
}
else
{
LOG(ERROR) << "Using CPU";
Caffe::set_mode(Caffe::CPU);
} NetParameter test_net_param;
ReadProtoFromTextFile(argv[1], &test_net_param);
Net<float> caffe_test_net(test_net_param);
NetParameter trained_net_param;
ReadProtoFromBinaryFile(argv[2], &trained_net_param);
caffe_test_net.CopyTrainedLayersFrom(trained_net_param); int total_iter = atoi(argv[3]);
LOG(ERROR) << "Running " << total_iter << " Iterations."; double test_accuracy = 0;
vector<Blob<float>*> dummy_blob_input_vec; int startID = 0;
int nums;
int dims;
int batchsize = test_net_param.layers(0).layer().batchsize(); int laynum = caffe_test_net.bottom_vecs().size();
printf("num of layers:%d\n",laynum); for (int i = 0; i < total_iter; ++i)
{
const vector<Blob<float>*>& result =
caffe_test_net.Forward(dummy_blob_input_vec); int laydepth = atoi(argv[7]); Blob<float>* features = (*(caffe_test_net.bottom_vecs().begin()+laydepth))[0];//调整第几层就可以 nums = features->num();
dims= features->count()/features->num(); int num = features->num();
int channels = features->channels();
int width = features->width();
int height = features->height();
printf("channels:%d,width:%d,height:%d\n",channels,width,height);
writeBatch(features->cpu_data(),num,channels,width,height,startID,argv[6]);
startID += nums; } return 0;
}

神经网络:caffe特征可视化的代码例子的更多相关文章

  1. caffe net 可视化工具,,层特征可视化

    1.只用网络在线结构绘制可视化网络模型 http://ethereon.github.io/netscope/#/editor 将对应的网络输入到里面,然后按shift+enter即可查看对应的网络结 ...

  2. 深度学习之卷积神经网络(CNN)详解与代码实现(一)

    卷积神经网络(CNN)详解与代码实现 本文系作者原创,转载请注明出处:https://www.cnblogs.com/further-further-further/p/10430073.html 目 ...

  3. 《神经网络的梯度推导与代码验证》之CNN的前向传播和反向梯度推导

    在FNN(DNN)的前向传播,反向梯度推导以及代码验证中,我们不仅总结了FNN(DNN)这种神经网络结构的前向传播和反向梯度求导公式,还通过tensorflow的自动求微分工具验证了其准确性.在本篇章 ...

  4. HOG特征原理及代码实现

    HOG特征原理 HOG特征: 方向梯度直方图(Histogram of Oriented Gradient, HOG)特征是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子. 它通过计算和统计 ...

  5. 《神经网络的梯度推导与代码验证》之FNN(DNN)前向和反向过程的代码验证

    在<神经网络的梯度推导与代码验证>之FNN(DNN)的前向传播和反向梯度推导中,我们学习了FNN(DNN)的前向传播和反向梯度求导,但知识仍停留在纸面.本篇章将基于深度学习框架tensor ...

  6. 《神经网络的梯度推导与代码验证》之CNN前向和反向传播过程的代码验证

    在<神经网络的梯度推导与代码验证>之CNN的前向传播和反向梯度推导 中,我们学习了CNN的前向传播和反向梯度求导,但知识仍停留在纸面.本篇章将基于深度学习框架tensorflow验证我们所 ...

  7. 《神经网络的梯度推导与代码验证》之vanilla RNN的前向传播和反向梯度推导

    在本篇章,我们将专门针对vanilla RNN,也就是所谓的原始RNN这种网络结构进行前向传播介绍和反向梯度推导.更多相关内容请见<神经网络的梯度推导与代码验证>系列介绍. 注意: 本系列 ...

  8. 30个php操作redis常用方法代码例子

    From: http://www.jb51.net/article/51884.htm 这篇文章主要介绍了30个php操作redis常用方法代码例子,本文其实不止30个方法,可以操作string类型. ...

  9. 30 个 php 操作 redis 常用方法代码例子

    这篇文章主要介绍了 30 个 php 操作 redis 常用方法代码例子 , 本文其实不止 30 个方法 , 可以操作 string 类型. list 类型和 set 类型的数据 , 需要的朋友可以参 ...

随机推荐

  1. Spring常用表单验证注解

    下面是主要的验证注解及说明: 注解 适用的数据类型 说明 @AssertFalse Boolean, boolean 验证注解的元素值是false @AssertTrue Boolean, boole ...

  2. Java SPI机制原理和使用场景

    SPI的全名为Service Provider Interface.这个是针对厂商或者插件的.一般来说对于未知的实现或者对扩展开放的系统,通常会把一些东西抽象出来,抽象的各个模块,往往有很多不同的实现 ...

  3. [转]HIVE UDF/UDAF/UDTF的Map Reduce代码框架模板

    FROM : http://hugh-wangp.iteye.com/blog/1472371 自己写代码时候的利用到的模板   UDF步骤: 1.必须继承org.apache.hadoop.hive ...

  4. Chapter 7 -- Functional

    Caveats 说明 As of Java 7, functional programming in Java can only be approximated through awkward and ...

  5. HotSpot Generations

    本文主要介绍HotSpot JVM的 Generations 机制, 原文来自 Oracle 文档  Java SE 6 HotSpot[tm] Virtual Machine Garbage Col ...

  6. 如何修改Windows上某块网卡的MTU的值

    先用如下命令查看所有的网卡以及他们的MTU的值. netsh interface ipv4 show interfaces 使用如下的命令修改他们的MTU为9000.        netsh int ...

  7. Mysql 高可用方案

    1 mysql分布式数据库,如 mycat https://www.cnblogs.com/zzsdream/articles/6650690.html 2 读写分离,mysql主从复制+mysql ...

  8. C# 播放铃声最简短的代码实现方式

    因为只是做一个软件的闹铃播放效果,到网上找的时候试了几种,哎,都失败了,而且代码挺杂的,最终一句搞定了: 1         // 窗体加载事件 2         private void Time ...

  9. Kafka:ZK+Kafka+Spark Streaming集群环境搭建(十二)VMW安装四台CentOS,并实现本机与它们能交互,虚拟机内部实现可以上网。

    Centos7出现异常:Failed to start LSB: Bring up/down networking. 按照<Kafka:ZK+Kafka+Spark Streaming集群环境搭 ...

  10. JPA(六):映射关联关系------映射单向一对多的关联关系

    映射单向一对多的关联关系 新建项目项目请参考<JPA(二):HellWord工程>,基于上一章讲解的<JPA(五):映射关联关系------映射单向多对一的关联关系>中的例子进 ...