论文信息 论文标题:How Attentive are Graph Attention Networks?论文作者:Shaked Brody, Uri Alon, Eran Yahav论文来源:2022,ICLR论文地址:download 论文代码:download 1 Abstract 在 GAT中,每个节点都为它的邻居给出自己的查询表示.然而,在本文中证明了 GAT 计算的是一种非常有限的注意类型:注意力分数在查询节点上是无条件的.本文将其定义为静态注意力,并提出了相应的动态注意力 GATv
基本就是第一层concatenate,第二层不concatenate. 相关论文: Semi-Supervised Classification with Graph Convolutional Networks Geometric deep learning on graphs and manifolds using mixture model CNNs Convolutional Neural Networks on Graphs with Fast Localized Spectral F
StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generative Adversarial Networks 本文将利用 GANs 进行高质量图像生成,分为两个阶段进行,coarse to fine 的过程.据说可以生成 256*256 的高清图像. 基于文本生成对应图像的工作已经有了,比如说 Attribute2Image,以及 最开始的基于文本生成图像的文章等等. Stacked Generated Adver
论文信息 论文标题:Understanding Attention and Generalization in Graph Neural Networks论文作者:Boris Knyazev, Graham W. Taylor, Mohamed R. Amer论文来源:2019,NeurIPS论文地址:download 论文代码:download 1 Introduction 本文关注将注意力 GNNs 推广到更大.更复杂或有噪声的图.作者发现在某些情况下,注意力机制的影响可以忽略不计,甚至有害