一、Abstract

从近期对unsupervised learning 的研究得到启发,在large-scale setting 上,本文把unsupervised learning 与supervised learning结合起来,提高了supervised learning的性能。主要是把autoencoder与CNN结合起来

二、Key words:

SAE;SWWAE; reconstruction;encoder;decoder;VGG-16;Alex-Net

三、 Motivation

  1. reconstruction loss 很有用,reconstruction loss可以看作一个regularizer(SWWAE文中提到).
  2. unsupervised learning会对model起一定的限定作用,即相当于一个regularizer,这个regularizer使得encoder阶段提取得到的特征具有可解释性

四、Main contributions

  1. 本文实验表明了,high-capacity neural networks(采用了known switches)的 intermediate activations 可以保存input的大量信息,除了部分

    2.通过结合decoder pathway 的loss,提升了supervised learning model的分类正确率

    3.做了几个 autoencoder模型的对比实验,发现: the pooling switches and the layer-wise reconstruction loss 非常重要!

五、Inspired by

  1. Zhao, J., Mathieu, M., Goroshin, R., and Lecun, Y. Stacked what-where auto-encoders. ArXiv:1506.02351, 2015.
  2. Simonyan, K. and Zisserman, A. Very deep convolutional networks for large-scale image recognition. In ICLR,2015.
  3. Krizhevsky, A., Sutskever, I., and Hinton, G. E. Imagenet classification with deep convolutional neural networks.In NIPS, 2012.

    Rasmus, A., Valpola, H., Honkala, M., Berglund, M., and Raiko, T. Semi-supervised learning with ladder network.In NIPS, 2015.
  4. Adaptive deconvolutional networks for mid and high level feature learning
  5. Zeiler, M. D., Krishnan, D., Taylor, G. W., and Fergus, R. Deconvolutional networks. CVPR, 2010.
  6. Zeiler, M., Taylor, G., and Fergus, R. Adaptive deconvolu-tional networks for mid and high level feature learning.In ICCV, 2011.

key word:SWWAE;VGG-16;Alex-Net;ladder-Net;Deconvolutional network

六、文献具体实验及结果

1.SAE-all模型的训练:

第一步,采用VGG-16(训练好的VGG-16)初始化encoder,采用gaussian初始化decoder

第二步,固定encoder部分,用layerwise的方法训练decoder

第三步,用数据整体的训练更新decoder和encoder的参数

SAE-first模型的训练同SAE-all

SAE-layerwise一般只是拿来初始化 SAE-first SAE-all

SWWAE-all 提升了 1.66 % and 1.18% for single-crop and convolution schemes.

(top-1)

七、 感悟

  1. 2006~2010年期间, unsupervised learning 盛行是以为当时有标签数据不够大,所以需要用unsupervised leanring 的方法来初始化网络,可以取得较好效果,而 类似imagenet这样的大量标签数据的出现, 用autoencoder来初始化网络的优势已经没有。从这里也可以知道,当数据量较小时,可以考虑用unsupervised learning 的方法来初始化网络,从而提升分类准确率
  2. reconstruction loss 可以看作 regularization , 即是对enconder的weights做了一些限制,限制其获得的activations要能recon出input,是的提取得到的特征具有可解释性

【文献阅读】Augmenting Supervised Neural Networks with Unsupervised Objectives-ICML-2016的更多相关文章

  1. 【文献阅读】Self-Normalizing Neural Networks

    Self-Normalizing Neural Networks ,长达93页的附录足以成为吸睛的地方(给人感觉很厉害), 此paper提出了新的激活函数,称之为 SELUs ,其具有normaliz ...

  2. 论文阅读 Streaming Graph Neural Networks

    3 Streaming Graph Neural Networks link:https://dl.acm.org/doi/10.1145/3397271.3401092 Abstract 本文提出了 ...

  3. [ufldl]Supervised Neural Networks

    要实现的部分为:forward prop, softmax函数的cost function,每一层的gradient,以及penalty cost和gradient. forwad prop forw ...

  4. [C3] Andrew Ng - Neural Networks and Deep Learning

    About this Course If you want to break into cutting-edge AI, this course will help you do so. Deep l ...

  5. [Converge] Training Neural Networks

    CS231n Winter 2016: Lecture 5: Neural Networks Part 2 CS231n Winter 2016: Lecture 6: Neural Networks ...

  6. An Intuitive Explanation of Convolutional Neural Networks

    https://ujjwalkarn.me/2016/08/11/intuitive-explanation-convnets/ An Intuitive Explanation of Convolu ...

  7. 论文笔记之:Learning Multi-Domain Convolutional Neural Networks for Visual Tracking

    Learning Multi-Domain Convolutional Neural Networks for Visual Tracking CVPR 2016 本文提出了一种新的CNN 框架来处理 ...

  8. How to Use Convolutional Neural Networks for Time Series Classification

    How to Use Convolutional Neural Networks for Time Series Classification 2019-10-08 12:09:35 This blo ...

  9. 《Graph Neural Networks: A Review of Methods and Applications》阅读笔记

    本文是对文献 <Graph Neural Networks: A Review of Methods and Applications> 的内容总结,详细内容请参照原文. 引言 大量的学习 ...

随机推荐

  1. socket介绍(webService适用场景)

    1.使用场景         - 不同的移动客户端访问      - 需要访问第三方的项目 2.访问第三方应用的方式      ISO的七层模型  : 物理层.数据链路层.网络层.传输层.表示层.会话 ...

  2. 九、 Java程序初始化的顺序(二)

    之前的一篇博客里我写了关于在一个类中的程序初始化顺序,但是在Java的面向对象里,类之间还存在着继承的关系.所以关于程序的初始化顺序,我们可以再细划分为:父类静态变量,父类的静态代码块,父类构造器,父 ...

  3. LeetCode OJ--Multiply Strings **

    https://oj.leetcode.com/problems/multiply-strings/ 用字符串实现大数乘法,细节题,细节很多 class Solution { public: stri ...

  4. EventBus 3.0: 入门使用及其使用 完全解析

    前言 EventBus是greenrobot再Android平台发布的以订阅-发布模式为核心的开源库. EventBus翻译过来是事件总线意思.可以这样理解:一个个(event)发送到总线上, 然后E ...

  5. CodeChef February Challenge 2018 Points Inside A Polygon (鸽笼原理)

    题目链接  Points Inside A Polygon 题意  给定一个$n$个点的凸多边形,求出$[ \frac{n}{10}]\ $个凸多边形内的整点. 把$n$个点分成$4$类: 横坐标奇, ...

  6. NOI模拟题5 Problem A: 开场题

    Solution 注意到\(\gcd\)具有结合律: \[ \gcd(a, b, c) = \gcd(a, \gcd(b, c)) \] 因此我们从后往前, 对于每个位置\(L\), 找到每一段不同的 ...

  7. mac 安装 word2016并破解

    http://blog.csdn.net/zqbx7/article/details/53448280

  8. java wait(),notify(),notifyAll()的理解

    这个三个函数来自Object类,众所周知它们是用于多线程同步的.然而,有个问题却一直没搞清楚,即notify()函数到底通知谁?<Thinking in JAVA>中有这么一句话,当not ...

  9. Android性能专项测试之耗电量统计API

    版权声明:本文为Doctorq原创文章,未经博主允许不得转载. https://blog.csdn.net/qhshiniba/article/details/49155979 参考文章:Androi ...

  10. C#面试:抽象类与接口

    本人近日面试遇到此等问题.然后又一次补习了一下下.希望对同行们有所帮助. 一.抽象类:       抽象类是特殊的类,仅仅是不能被实例化:除此以外.具有类的其它特性:重要的是抽象类能够包括抽象方法,这 ...