Understanding Variational Autoencoders (VAEs) 2019-09-29 11:33:18 This blog is from: https://towardsdatascience.com/understanding-variational-autoencoders-vaes-f70510919f73 Introduction In the last few years, deep learning based generative models hav…
Conditional Variational Autoencoders --- 条件式变换自编码机 Goal of a Variational Autoencoder: 一个 VAE(variational autoencoder)是一个产生式模型,意味着我们可以产生看起来像我们的训练数据的 samples.以 mnist 数据集为例,这些伪造的样本可以看做是手写字体的合成图像.我们的 VAE 将会提供我们一个空间,我们称之为 latent space (潜在空间),我们可以从这里采样出 po…
Conditional Variational Autoencoders 条件式变换自编码机 摘要: Conditional Variational Autoencoders --- 条件式变换自编码机    Goal of a Variational Autoencoder:  一个 VAE(variational autoencoder)是一个产生式模型,意味着我们可以产生看起来像我们的训练数据的 samples. Conditional Variational Autoencoders -…
本是neural network的内容,但偏偏有个variational打头,那就聊聊.涉及的内容可能比较杂,但终归会 end with VAE. 各个概念的详细解释请点击推荐的链接,本文只是重在理清它们之间的婆媳关系. 无意中打开了:中国科大iGEM项目报告,感慨颇多,尤其是时光,这其中也包含了写这系列文字的目的. 在技术上不得不走了不少弯路,每当无意间回首,对于那些”没机会“走弯路的同学们,是羡慕的:对于不懂得珍惜机会的同学们,也是充满惋惜. 希望,透过这些文字,能唤醒一些东西,助你找到正确…
基于图嵌入的高斯混合变分自编码器的深度聚类 Deep Clustering by Gaussian Mixture Variational Autoencoders with Graph Embedding, DGG 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/ 1. 引言 这篇博文主要是对论文“Deep Clustering by Gaussian Mixture Variational Autoencoders with Graph Embe…
目录 概 主要内容 本文的模型 Identifiability Khemakhem I., Kingma D. P., Monti R. P. and Hyv"{a}rinen A. Variational autoencoders and nonlinear ICA: a unifying framework. In International Conference on Artificial Intelligence and Statistics (AISTATS), 2020. 概 本文讨…
目录 概 主要内容 代码 Tomczak J. and Welling M. Improving Variational Auto-Encoders using Householder Flow. NIPS workshop: Bayesian Deep Learning, 2016. 概 本文介绍了一种Normalizing FLow, 利用Householder变换. 主要内容 我们一般假设 \[q_{\phi} (z|x) = \mathcal{N}(z| \mu(x), \sigma^2…
目录 AE v.s. VAE Generative model VAE v.s. GAN AE v.s. VAE Generative model VAE v.s. GAN…
Problem: unsupervised anomaly detection Model: VAE-reEncoder VAE with two encoders and one decoder. They use bidirectional bow-tie LSTM for each part. Why use bow-tie model: to remove noise to some extent when encoding.…
[NLG - E2E - knowledge guide generation] 1. Knowledge Diffusion for Neural Dialogue Generation ( ‎Cited by 3 ) Shuman Liu, Hongshen Chen, Zhaochun Ren, Yang Feng, Qun Liu, Dawei Yin End-to-end neural dialogue generation has shown promising results re…