Hierarchical Attention Based Semi-supervised Network Representation Learning 1. 任务 给定:节点信息网络 目标:为每个节点生成一个低维向量   基于半监督的分层关注网络嵌入方法 2. 创新点: 以半监督的方式结合外部信息 1. 提出SHANE 模型,集成节点结构,文本和标签信息,并以半监督的方式学习网络嵌入 2. 使用分层注意网络学习节点的文本特征, 两层双向GRU 提取单词和句子的潜在特征   3. 背景 1. 现…
网络表示学习相关资料 网络表示学习(network representation learning,NRL),也被称为图嵌入方法(graph embedding method,GEM)是这两年兴起的工作,目前很热,许多直接研究网络表示学习的工作和同时优化网络表示+下游任务的工作正在进行中. 清华大学计算机系的一个学习组 新浪微博@涂存超 整理的论文列表:https://github.com/thunlp/NRLpapers,并一直持续更新着,里面详细的列举了最近几年有关网络表示学习(networ…
目录 摘要 一.引言 二.相关工作 基于体素网格的特征学习 直接从非结构化点云中学习特征 从多视图模型中学习特征 几何深度学习的学习特征 三.GAPNet架构 3.1 GAPLayer 局部结构表示 单头GAPLayer 多头机制 3.2注意力池化层 3.3 GAPNet架构 四.实验 4.1分类 数据集 网络结构 训练细节 结果 消融研究 4.2 语义部件分割 数据集 模型结构 训练细节 结果 五.结论 GAPNet: Graph Attention based Point Neural Ne…
翻译 Improved Word Representation Learning with Sememes 题目 Improved Word Representation Learning with Sememes 融合义原知识的词汇表示学习 摘要 Abstract Sememes are minimum semantic units of word meanings, and the meaning of each word sense is typically composed by sev…
this blog from: https://opendatascience.com/blog/notes-on-representation-learning-1/   Notes on Representation Learning By Zac Kriegman, Senior Data Scientist in the Thomson Reuters Data Innovation Lab | 02/07/2017 Tags: Deep Learning , Neural Networ…
Self-Supervised Representation Learning 2019-11-11 21:12:14  This blog is copied from: https://lilianweng.github.io/lil-log/2019/11/10/self-supervised-learning.html Self-Supervised Representation Learning Nov 10, 2019 by Lilian Weng representation-le…
Predictive learning vs. representation learning  预测学习 与 表示学习 When you take a machine learning class, there's a good chance it's divided into a unit on supervised learning and a unit on unsupervised learning. We certainly care about this distinction f…
一.编码-解码架构 目的:解决语音识别.机器翻译.知识问答等输出输入序列长度不相等的任务. C是输入的一个表达(representation),包含了输入序列的有效信息. 它可能是一个向量,也可能是一个固定长度的向量序列: 如果C是一个向量序列,则它和输入序列的区别在于:序列C是定长的.较短的:而输入序列是不定长的.较长的. 二.注意力机制 1.attention 注意力权重用来估计其他元素与其相关的强度,并将由注意力加权的值的总和作为计算最终目标的特征. step1:计算其他元素与待测元素的相…
目录 主要挑战 主要的贡献和创新点 提出的方法 总体框架与算法 Vanilla pseudo label sampling (PLS) PLS with adversarial learning Training losses 实验与结果 结论 导言 文章提出了一种新的三元组损失 HSoften-Triplet-Loss,在处理one-shot Re-ID任务中的噪声伪标签样本方面非常强大.文章还提出了一种伪标签采样过程,确保了在保持高可靠性的同时为训练图像形成正对和负对的可行性.与此同时,文章…
论文信息 Title:<Symmetric Graph Convolutional Autoencoder for Unsupervised Graph Representation Learning> Authors:Jiwoong Park.Minsik Lee.H. Chang.Kyuewang Lee.J. Choi Sources:2019 IEEE/CVF International Conference on Computer Vision (ICCV) Paper:Downlo…