(Learning a Deep Convolutional Network for Image Super-Resolution, ECCV2014) 摘要:我们提出了一种单图像超分辨率的深度学习方法(SR).我们的方法直接学习在低/高分辨率图像之间的端到端映射.这个映射表现为通过一个深度的卷积神经网络CNN,把低分辨率的图像作为输入,输出高分辨率图像.我们进一步证明了基于传统的稀疏编码超分辨的方法也可以看作是一个深卷积网络.但不像传统的方法一样分离的处理每一个组成,我们的方法联合优化了所有层…
加尔各答印度统计研究所,作者: Pulak Purkait (pulak_r@isical.ac.in) 2013 年 代码:CodeForge.cn http://www.codeforge.cn/article/239282/…
UNSUPERVISED REPRESENTATION LEARNING WITH DEEP CONVOLUTIONAL GENERATIVE ADVERSARIAL NETWORKS  ICLR 2016  摘要:近年来 CNN 在监督学习领域的巨大成功 和 无监督学习领域的无人问津形成了鲜明的对比,本文旨在链接上这两者之间的缺口.提出了一种 deep convolutional generative adversarial networks (DCGANs),that have certai…
文章目录 [隐藏] 1. 强化学习和深度学习结合 2. Deep Q Network (DQN) 算法 3. 后续发展 3.1 Double DQN 3.2 Prioritized Replay 3.3 Dueling Network 4. 总结 强化学习系列系列文章 我们终于来到了深度强化学习. 1. 强化学习和深度学习结合 机器学习=目标+表示+优化.目标层面的工作关心应该学习到什么样的模型,强化学习应该学习到使得激励函数最大的模型.表示方面的工作关心数据表示成什么样有利于学习,深度学习是最…
今年去参加了ASPLOS 2017大会,这个会议总体来说我感觉偏系统和偏软一点,涉及硬件的相对少一些,对我这个喜欢算法以及硬件架构的菜鸟来说并不算非常契合.中间记录了几篇相对比较有趣的paper,今天简单写一篇. SC-DCNN: Highly-Scalable Deep Convolutional Neural Network using Stochastic Computing 单位作者: 我们知道在神经网络计算中,最主要的计算就是乘加,本篇重点就是解释了什么是Stochastic Comp…
ASEGAN:WGAN音频超分辨率 这篇文章并不具有权威性,因为没有发表,说不定是外国的某个大学的毕业设计,或者课程结束后的作业.或者实验报告. CS230: Deep Learning, Spring 2018, Stanford University, CA. (LateX template borrowed from NIPS 2017.) 作者:Jonathan Gomes-Selman, Arjun Sawhney, WoodyWang 摘要 本文提出使用Wasserstein(沃瑟斯…
这篇文章的主要贡献点在于: 1.实验证明仅仅利用图像整体的弱标签很难训练出很好的分割模型: 2.可以利用bounding box来进行训练,并且得到了较好的结果,这样可以代替用pixel-level训练中的ground truth: 3.当我们用少量的pixel-level annotations和大量的图像整体的弱标签来进行半监督学习时,其训练效果可和全部使用pixel-level annotations差不多: 4.利用额外的强弱标签可以进一步提高效果. 这是用image-level lab…
- Alec Radford, ICLR2016 原文:https://arxiv.org/abs/1511.06434 论文翻译:https://www.cnblogs.com/lyrichu/p/9054704.html 代码实现:https://github.com/sunshineatnoon/Paper-Implementations/blob/master/dcgan/dcgan.py ABSTRACT CNN在监督学习上有着很多的成就,但是在非监督学习上却没有大的进展. 作者将CN…
介绍 该文提出一种基于深度学习的特征描述方法,并且对尺度变化.图像旋转.透射变换.非刚性变形.光照变化等具有很好的鲁棒性.该算法的整体思想并不复杂,使用孪生网络从图块中提取特征信息(得到一个128维的特征向量),并且使用L2距离来描述特征之间的差异,目标是让匹配图块特征之间的距离缩短,让不匹配图块特征之间的距离增大. 数据集及模型结构 数据集 论文使用的是一个叫做MVS的建筑物数据集,包含了1.5M张\(64 \times 64\)张的灰度图来自500K个3D points. 网络的结构: 3.…
目录 1. 故事 2. 方法 3. 实验 这是继SRCNN(超分辨)之后,作者将CNN的战火又烧到了去压缩失真上.我们看看这篇文章有什么至今仍有启发的故事. 贡献: ARCNN. 讨论了low-level的迁移学习优势. 1. 故事 现有的(传统的)方法要么只关注去除块效应,要么只关注去模糊,没有能兼得的.后果就是这两种操作相互矛盾,去块效应的同时导致模糊,去模糊的同时导致振铃效应. 作者尝试将3层的SRCNN直接用于去除压缩失真,发现效果不好.作者于是在中间增加了一层,美其名曰"feature…