本文转自:http://www.cosmosshadow.com/ml/%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C/2016/03/08/Attention.html     Attention Index 参考列表 Attention Attention在视觉上的递归模型 模型 训练 效果 Torch代码结构 (TODO)基于Attention的图片生成 基于Attention的图片主题生成 模型 编码 解码 Stochastic “Hard” Atten…
CVPR2017 paper list Machine Learning 1 Spotlight 1-1A Exclusivity-Consistency Regularized Multi-View Subspace Clustering Xiaojie Guo, Xiaobo Wang, Zhen Lei, Changqing Zhang, Stan Z. Li Borrowing Treasures From the Wealthy: Deep Transfer Learning Thro…
作者:zhbzz2007 出处:http://www.cnblogs.com/zhbzz2007 欢迎转载,也请保留这段声明.谢谢! 1 简介 自2013年提出了神经机器翻译系统之后,神经机器翻译系统取得了很大的进展.最近几年相关的论文,开源系统也是层出不穷.本文主要梳理了神经机器翻译入门.进阶所需要阅读的资料和论文,并提供了相关链接以及简单的介绍,以及总结了相关的开源系统和业界大牛,以便其他的小伙伴可以更快的了解神经机器翻译这一领域. 随着知识的逐步积累,本文后续会持续更新.请关注. 2 入门…
Sequence-to-sequence Framework A Neural Attention Model for Abstractive Sentence Summarization Alexander M. Rush et al., Facebook AI Research/Harvard EMNLP2015 sentence level seq2seq模型在2014年提出,这篇论文是将seq2seq模型应用在abstractive summarization任务上比较早期的论文.同组的…
一 前言 最近收到审稿人的修改意见,其中有三条:一条为<RC: There were only five images evaluated in the experiment, and I recommend increasing to twenty to further evaluate the algorithm performance.>他说我论文只有五副图像用来评价算法性能,推荐我至少用20副图像来仿真算法效果. 另外一条为<1.2. Quality RC: The manusc…
转载请注明出处: https://www.cnblogs.com/darkknightzh/p/9333844.html 论文网址:https://arxiv.org/abs/1806.06195 在gan中,对图像进行风格变换时,一般都是将整个图像进行变换.由于图像包含前景和背景,因而该论文在保持背景区域不变的前提下,对前景区域进行风格变换.同时,使用self-regularization项来约束变换前后背景区域的差异. 网络结构如下图所示.输入图像通过2层的下采样,而后通过9层的残差网络,在…
Neural Machine Translation Welcome to your first programming assignment for this week! You will build a Neural Machine Translation (NMT) model to translate human readable dates ("25th of June, 2009") into machine readable dates ("2009-06-25…
DualGAN: Unsupervised Dual Learning for Image-to-Image Translation 2017-06-12  21:29:06   引言部分: 本文提出一种对偶学习模式的 GAN 网络结构来进行 image to image translation.现有的图像之间转换的方法,大部分都是需要图像对的方法,但是实际上有的场景下,很难得到这样的图像对.如何利用多个 domain 之间的关系,不需要图像对就可以进行图像之间的转换,那将会是一个很 cool…
Unsupervised Image-to-Image Translation Networks --- Reading Writing 2017.03.03 Motivations: most existing image to image translation algorithms are all need image pairs as training data for deep neural network, such as CGANs or VAEs. But in some cas…
1. 前言 本文介绍一种无监督的机器翻译的模型.无监督机器翻译最早是<UNSUPERVISED NEURAL MACHINE TRANSLATION>提出.这个模型主要的特点,无需使用平行语料库,使用去噪和回译的步骤构建NMT系统. 2018年Facebook人工智能实验室再次公布了有关无监督神经网络翻译的最新模型<Phrase-Based & Neural Unsupervised Machine Translation>,相当于用 10 万个参考译文训练过的监督模型.&…