目录 1. 故事 2. 方法 3. 实验 这是继SRCNN(超分辨)之后,作者将CNN的战火又烧到了去压缩失真上.我们看看这篇文章有什么至今仍有启发的故事. 贡献: ARCNN. 讨论了low-level的迁移学习优势. 1. 故事 现有的(传统的)方法要么只关注去除块效应,要么只关注去模糊,没有能兼得的.后果就是这两种操作相互矛盾,去块效应的同时导致模糊,去模糊的同时导致振铃效应. 作者尝试将3层的SRCNN直接用于去除压缩失真,发现效果不好.作者于是在中间增加了一层,美其名曰"feature…
(Learning a Deep Convolutional Network for Image Super-Resolution, ECCV2014) 摘要:我们提出了一种单图像超分辨率的深度学习方法(SR).我们的方法直接学习在低/高分辨率图像之间的端到端映射.这个映射表现为通过一个深度的卷积神经网络CNN,把低分辨率的图像作为输入,输出高分辨率图像.我们进一步证明了基于传统的稀疏编码超分辨的方法也可以看作是一个深卷积网络.但不像传统的方法一样分离的处理每一个组成,我们的方法联合优化了所有层…
目录 故事 网络设计 网络前端 升采样中的平移-均值化 网络度量 训练 发表于2017年CVPR. 目标:JPEG图像去压缩失真. 主要内容: 同时使用感知损失.对抗损失和JPEG损失(已知量化间隔,惩罚落在间隔外的值),让恢复图像主客观质量都更好. 对像素进行平移-均值化处理,进一步抑制块效应. 亮点:解释了one-to-many的合理性:由于图像恢复是欠定问题,因此理应有多张潜在的高质量图像 可供选择.但是最终没有体现one-to-many啊摔!而是加权组合了这三个损失函数,没有多输出. 评…
这篇文章的主要贡献点在于: 1.实验证明仅仅利用图像整体的弱标签很难训练出很好的分割模型: 2.可以利用bounding box来进行训练,并且得到了较好的结果,这样可以代替用pixel-level训练中的ground truth: 3.当我们用少量的pixel-level annotations和大量的图像整体的弱标签来进行半监督学习时,其训练效果可和全部使用pixel-level annotations差不多: 4.利用额外的强弱标签可以进一步提高效果. 这是用image-level lab…
郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! Abstract: 在深度学习的最新进展的启发下,我们提出了一种基于卷积神经网络(CNN)的视频压缩框架DeepCoder.我们分别对预测信号和残差信号应用独立的CNN网络.采用标量量化和哈夫曼编码将量化后的特征映射编码为二进制流.本文采用固定的32×32块来证明我们的想法,并与已知的H.264/AVC视频编码标准进行了性能比较,具有可比较的率失真性能.这里使用结构相似性(SSIM)来测量失真,因为它更接近感知响应. I. INTRO…
本文介绍了Alex net 在imageNet Classification 中的惊人表现,获得了ImagaNet LSVRC2012第一的好成绩,开启了卷积神经网络在cv领域的广泛应用. 1.数据集 ImageNet [6], which consists of  over 15 million labeled high-resolution images in over 22,000 categories. here,ILSVRC uses a subset of ImageNet with…
今天给大家带来一篇来自CVPR 2017关于人脸识别的文章. 文章题目:Deep Convolutional Neural Network using Triplets of Faces, Deep Ensemble, and 摘要: 文章动机:人脸识别在一个没有约束的环境下,在计算机视觉中是一个非常有挑战性的问题.同一个身份的人脸当呈现不同的装饰,不同的姿势和不同的表情都可以使人脸看起来完全不同.这种相同身份的变化可以压倒不同身份的变化,这样给人脸识别带来更大的挑战,特别是在没有约束的环境下.…
ImageNet Classification with Deep Convolutional Neural Networks 深度卷积神经网络的ImageNet分类 Alex Krizhevsky University of Toronto 多伦多大学 kriz@cs.utoronto.ca Ilya Sutskever University of Toronto 多伦多大学 ilya@cs.utoronto.ca Geoffrey E. Hinton University of Toront…
A Survey of Model Compression and Acceleration for Deep Neural Network时s 本文全面概述了深度神经网络的压缩方法,主要可分为参数修剪与共享.低秩分解.迁移/压缩卷积滤波器和知识精炼,论文对每一类方法的性能.相关应用.优势和缺陷等方面进行了独到分析. 研究背景 在神经网络方面,早在上个世纪末,Yann LeCun 等人已经使用神经网络成功识别了邮件上的手写邮编.至于深度学习的概念是由 Geoffrey Hinton 等人首次提出…
This past summer I interned at Flipboard in Palo Alto, California. I worked on machine learning based problems, one of which was Image Upscaling. This post will show some preliminary results, discuss our model and its possible applications to Flipboa…