总结: 1.线性变换运算封闭,加法和乘法 2.特征向量经过线性变换后方向不变 https://en.wikipedia.org/wiki/Linear_map Examples of linear transformation matrices In two-dimensional space R2 linear maps are described by 2 × 2 real matrices. These are some examples: rotation by 90 degrees c…
https://en.wikipedia.org/wiki/Eigenvalues_and_eigenvectors#Graphs A               {\displaystyle A}   ,它的特征向量(eigenvector,也译固有向量或本征向量)                     v               {\displaystyle v}   经过这个线性变换[1]之后,得到的新向量仍然与原来的                     v          …
知识图谱综述(2021.4) 论文地址:A Survey on Knowledge Graphs: Representation, Acquisition, and Applications 目录 知识图谱综述(2021.4) 摘要 1.简介 2.概述 3.知识表示学习(KRL) 3.1 表示空间 3.1.1 点空间 3.1.2 复向量空间 3.1.3 高斯分布 3.1.4 流形和群 3.2 评分函数 3.2.1 基于距离的评分函数 3.2.2 基于语义匹配的评分函数 3.3 编码模型 3.3.…
PS:一直以来对SVD分解似懂非懂,此文为译文,原文以细致的分析+大量的可视化图形演示了SVD的几何意义.能在有限的篇幅把这个问题讲解的如此清晰,实属不易.原文举了一个简单的图像处理问题,简单形象,真心希望路过的各路朋友能从不同的角度阐述下自己对SVD实际意义的理解,比如 个性化推荐中应用了SVD,文本以及Web挖掘的时候也经常会用到SVD. 原文:We recommend a singular value decomposition 简介 SVD实际上是数学专业内容,但它现在已经渗入到不同的领…
本文转载自他人: PS:一直以来对SVD分解似懂非懂,此文为译文,原文以细致的分析+大量的可视化图形演示了SVD的几何意义.能在有限的篇幅把这个问题讲解的如此清晰,实属不易.原文举了一个简单的图像处理问题,简单形象,真心希望路过的各路朋友能从不同的角度阐述下自己对SVD实际意义的理解,比如 个性化推荐中应用了SVD,文本以及Web挖掘的时候也经常会用到SVD. 原文:We recommend a singular value decomposition 关于线性变换部分的一些知识可以猛戳这里  …
本文转载自他人: PS:一直以来对SVD分解似懂非懂,此文为译文,原文以细致的分析+大量的可视化图形演示了SVD的几何意义.能在有限的篇幅把这个问题讲解的如此清晰,实属不易.原文举了一个简单的图像处理问题,简单形象,真心希望路过的各路朋友能从不同的角度阐述下自己对SVD实际意义的理解,比如 个性化推荐中应用了SVD,文本以及Web挖掘的时候也经常会用到SVD. 原文:We recommend a singular value decomposition 简介 SVD实际上是数学专业内容,但它现在…
Defferrard, Michaël, Xavier Bresson, and Pierre Vandergheynst. "Convolutional neural networks on graphs with fast localized spectral filtering." Advances in Neural Information Processing Systems. 2016. 摘要: 作者提出了一种把传统CNN扩展到非欧空间上的一种卷积网络 1.介绍 作者的主要…
基于Attention的知识图谱关系预测 论文地址 Abstract 关于知识库完成的研究(也称为关系预测)的任务越来越受关注.多项最新研究表明,基于卷积神经网络(CNN)的模型会生成更丰富,更具表达力的特征嵌入,因此在关系预测上也能很好地发挥作用.但是这些知识图谱的嵌入独立地处理三元组,因此无法覆盖和收集到三元组周围邻居隐含着的复杂隐藏信息.为此,作者提出了一种新颖的基于注意力的特征嵌入方法,该方法可以捕获任何给定实体的邻居中的实体和关系特征. Introduction 最新的关系预测方法主要…
Paper Information Title:Convolutional Neural Networks on Graphs with Fast Localized Spectral FilteringAuthors:Michaël DefferrardXavier BressonPierre VandergheynstPaper:Download Source:NeurIPS 2016 Abstract 基于   spectral graph theory  ,为设计 localized c…
感悟 看完图卷积一代.二代,深感图卷积的强大,刚开始接触图卷积的时候完全不懂为什么要使用拉普拉斯矩阵( $L=D-W$),主要是其背后的物理意义.通过借鉴前辈们的论文.博客.评论逐渐对图卷积有了一定的了解,作为一个刚上研的博士生,深感得对图神经网络进行一个系统的学习. 本篇论文得感谢论文 David I Shuman 作者及博主:纯牛奶爱酸牛奶 Paper Information Authors:D. Shuman, S. Narang, P. Frossard, Antonio Ortega,…