论文信息

论文标题:Federated Graph Attention Network for Rumor Detection
论文作者:Huidong Wang, Chuanzheng Bai, Jinli Yao
论文来源:2022, arXiv
论文地址:download 
论文代码:download

1 Introduction

  现有的谣言检测模型都是为单一的社交平台构建的,这忽略了跨平台谣言的价值。本文将联邦学习范式与双向图注意网络谣言检测模型相结合,提出了用于谣言检测的联邦图注意网络(FedGAT)模型。

  对于数据安全和隐私保护,不同组织之间的数据通常不能互操作,而且它们不能很容易地聚合和处理,这种无法共享数据的情况被称为 isolated data island problem。

2 Preliminaries

2.1 Problem statement and notation

  许多社交网络很难合作解决谣言传播的问题,传统的谣言检测是在单一的社交网络平台进行,通常只是获得某个组织的用户数据,然后建立一个模型来确定一个时间是否发布了虚假的谣言帖子。本文构建的谣言检测模型主要针对不同社交平台之间谣言数据的互操作性,建立了跨平台数据聚合的模型,以提高社交网络中虚假谣言事件的检测效率。

  Table 1 总结了本文中使用的一些符号的定义,并将需要处理的谣言检测问题描述如下。

  

  假设有 $k$ 个平台,他们对应的谣言数据集是 $\left\{D_{i}\right\}_{i=1, \ldots, k}^{m}$,其中 ,$D_{i}$ 代表第 $i$ 个平台的谣言数据集。假设 第 $i$ 个平台拥有 $m$ 个 post event,它可以表示为 $\left\{C_{1}, C_{2}, \ldots, C_{m}\right\}$ 。谣言检测的目的是对事件来源帖子的内容是否可靠进行分类,即根据现有知识判断是否为虚假谣言。

2.2 Graph Attention Network

  注意力系数计算:

    ${\Large \alpha_{i j}=\frac{\exp \left(\text { LeakyReLU }\left(a^{T}\left[W \cdot h_{i} \| W \cdot h_{j}\right]\right)\right)}{\sum_{j \in N_{i} \cup i} \exp \left(\operatorname{LeakyReLU}\left(a^{T}\left[W \cdot h_{i} \| W \cdot h_{j}\right]\right)\right)}} \quad\quad\quad(1)$

  多头注意力:

    ${\Large h_{i}^{\prime}=\|_{h e a d=1}^{H e a d s} \sigma\left(\sum\limits_{j \in i \cup i} \alpha_{i j}^{h e a d} W^{h e a d} h_{j}\right)} $

2.3 Federated Learning

  联邦学习旨在建立一个基于分布式数据集的联邦学习模型。它通常包括两个过程:模型训练,和模型推理。在模型训练中,各方之间可以进行与模型相关的信息交换。联邦学习是一种算法框架,用于构建具有以下特征的机器学习模型。首先,两个或两个以上的联合学习参与者协作构建一个共享的机器学习模型,每个参与者都有几个训练数据,可以用来训练该模型。第二,在联邦学习模型的训练过程中,每个参与者拥有的数据不会离开参与者,即数据不会离开数据所有者。与联邦学习模式相关的信息可以在双方之间以加密的方式传输和交换,需要确保没有参与者能够推断出其他方的原始数据。此外,联邦学习模型的性能必须能够完全接近理想模型的性能,这意味着通过收集和训练所有训练数据而获得的机器学习模型。

  我们使用水平联邦学习,它在样本数据不同的情况下处理具有相同特征 $X$ 和标签信息 $Y$ 的跨平台数据,因此它适用于我们所研究的谣言检测情况。在典型的联邦学习范式中,第 $i$ 个客户端的局部目标函数如 $\text{eq.3}$  所示。 其中 $D_i$ 为第 $i$ 个客户端的本地数据集,$f$ 为参数为 $w$ 的模型的损失函数,$n_i$ 为第 $i$ 个客户端的数据量。

    ${\large F_{i}(w)=\frac{1}{n_{i}} \sum\limits _{j \in D_{i}} f_{j}(w)} \quad\quad\quad(3)$

  中心服务器目标函数 $F(w)$ 通常计算为 $\text{eq.4}$ 。其中 $m$ 为参与培训的客户端设备总数,$n$ 为所有客户端数据量之和。

    ${\Large \min _{w} F(w)=\sum\limits _{i=1}^{m} \frac{n_{i}}{n} F_{i}(w)} \quad\quad\quad(4)$

3 FedGAT model

  整体框架如下:

  

  每个社交平台都在本地使用专有数据进行谣言检测,并将检测模型训练过程中生成的模型参数发送到终端服务器进行聚合处理。服务器端的全局模型将处理后的模型参数返回给本地模型,然后本地模型根据跨平台信息对自己模型的参数进行微调。

  本文提出的跨平台谣言检测模型包括局部谣言检测模型和跨平台数据处理的联邦学习范式两部分,我们将详细介绍我们的 FedGAT模型。

  根据经验,帖子的内容信息可以通过源帖子和转发的帖子之间的内容来反反映。此外,对于每个事件,第一个帖子的原始内容信息往往是最重要的,而后续的转发帖子是对原始帖子内容的评论。所以本文使用 双向图注意网络 作为本文的谣言检测模型的基础,其中,双向模型可以综合谣言信息沿自顶向下和自底向上的传播方向,且GAT模型可以增强对源帖子信息的关注。

3.1 Preprocessing of rumor data

  首先,对谣言数据中的文本信息进行词向量处理,并使用 TF-IDF 计算文本中单词的频率作为初始特征。每个单词向量的维度是 5000,每个维数的值表示文章中某个单词的频率。

  然后,根据帖子之间的转发关系构建图结构 $\operatorname{Graph}_{i}=\left(V_{i}, E_{i}\right)$。

  定义:

    • $\operatorname{Graph}_{i}^{T D}=\left(V_{i}, E_{i}^{T D}\right)$  
    • $Graph_{i}^{B U}=\left(V_{i}, E_{i}^{B U}\right)$  
    • $A_{i}^{T D}=\left(A_{i}^{B U}\right)^{T}$  
    • $H_{i}=\left[h_{i, 0}^{T}, h_{i, 1}^{T}, \ldots, h_{i, n_{i}}^{T}\right]$  

3.2 Local model training on social platform

  多头注意力:

    ${\large h_{i}^{T D^{\prime}}=\operatorname{Re} L U\left(\underset{h e a d=1}{5} \sigma\left(\sum_{j \in{ }_{i} \cup i} \alpha_{i j}^{T \text { Dhead }} W^{T D h e a d} h_{j}^{T D}\right)\right)} \quad\quad\quad(5)$

    ${\large h_{i}^{\mathrm{BU}}=\operatorname{Re} L U\left(\underset{h e a d=1}{5} \sigma\left(\sum\limits_{j \in_{i} \cup i} \alpha_{i j}^{\mathrm{BUhead}} W^{\mathrm{BUhead}} h_{j}^{\mathrm{BU}}\right)\right)} \quad\quad\quad(6)$

  最后,拼接 top-down 和 bottom-up directions 的嵌入矩阵,最后使用 softmax 函数对输出的分类结果进行处理,如 $\text{Eq.7}$ 所示:

    $\hat{y}=\operatorname{softmax}\left(F C\left(\left(H^{T D^{\prime}}, H^{B U^{\prime}}\right)\right)\right) \quad\quad\quad(7)$

3.3 Aggregate model parameters on terminal server

  水平联合学习的终端服务器是对不同社交平台的模型训练数据进行聚合,在更新全局模型后,将更新后的参数变化发送回这些本地社交平台。在这里的配置中,我们设置了每轮训练的客户端数量和迭代次数等配置文件,并将之前定义的 Bi-GAT 谣言检测模型作为服务器端的初始模型。该模型用于接收所有客户端训练参数信息。

  本部分我们选择的聚合函数是经典的 FedAvg 算法,其计算公式如 $\text{Eq.8}$ 所示:

    $G^{t+1}=G^{t}+\frac{1}{m} \sum_{i=1}^{m}\left(F_{i}^{t+1}-G^{t}\right) \quad\quad\quad(8)$

  其中 $G$ 和 $F$ 分别表示全局模型和局部模型,$t$ 表示第 $t$ 轮训练。它的主要功能是在定义了构造函数后,使用客户端上传的接收模型来更新全局模型。

  在服务器上进行参数更新后,社交平台将根据返回的参数信息调整其本地模型。我们将服务器端设置的配置信息复制到本地端。从服务器接收到全局模型的优化参数后,对每个社交平台客户端的谣言检测模型进行修改,如 $\text{Eq.9}$ 所示

    $F_{i}^{t+1}=(1-\lambda) F_{i}^{t}+\lambda G^{t}  \quad\quad\quad(9)$

  其中,$\lambda$ 是一个超参数,用来表示其他社交平台数据对其本地模型的影响程度,并且参与联邦学习的多个社交平台越相似,$\lambda$ 的价值就越大。

4 Experiments

Dataset

  

结果

    $F 1=\frac{2 \cdot \text { Precision } \cdot \text { Recall }}{\text { Precision }+\text { Recall }}$

  

  

参数分析

  

  

5 Conclusion

  跨不同社交平台的谣言检测问题是一个值得研究的领域。本文将联邦学习框架与双向图注意网络谣言检测模型相结合,构建了联邦图注意网络模型。它可以解决不同社交平台上的谣言检测中的数据岛隔离问题,并可以安全可靠地进行跨平台的谣言检测。可以从仿真实验结果使用公共Twitter谣言检测数据集提出的 FedGAT 模型可以实现优秀的结果在处理数据集从不同平台的同时,可以发现谣言检测非常适合建立一个模型基于图关注网络。此外,我们还分析了模型中 m、k、λ 等参数的影响。我们发现,模型在不同λ水平下所能达到的最小损失值没有太大差异,但对模型的模型优化率有影响。λ越大,模型训练的损失值可以减小得越快。平台总数 m 的增加不利于更准确的谣言预测。在每个谣言检测训练中,每个训练阶段都应该使用尽可能多的客户数据。

  由于本文的实验只是人工构建了数据集来模拟不同社交平台的谣言数据,因此可能与实际的跨平台谣言检测数据集存在一些差异。我们期望跨平台谣言检测FedGAT模型在未来能够基于现实生活中的多社交平台场景进行模型优化。此外,本文中使用的Bi-GAT模型也可以被现有的优秀谣言检测模型所取代,水平联邦学习范式也可以进行相应的修改。我们期待着在未来对谣言检测进行更多的研究。

论文解读(FedGAT)《Federated Graph Attention Network for Rumor Detection》的更多相关文章

  1. 论文解读《Bilinear Graph Neural Network with Neighbor Interactions》

    论文信息 论文标题:Bilinear Graph Neural Network with Neighbor Interactions论文作者:Hongmin Zhu, Fuli Feng, Xiang ...

  2. 谣言检测——《MFAN: Multi-modal Feature-enhanced Attention Networks for Rumor Detection》

    论文信息 论文标题:MFAN: Multi-modal Feature-enhanced Attention Networks for Rumor Detection论文作者:Jiaqi Zheng, ...

  3. 论文笔记之:Graph Attention Networks

    Graph Attention Networks 2018-02-06  16:52:49 Abstract: 本文提出一种新颖的 graph attention networks (GATs), 可 ...

  4. 《Graph Attention Network》阅读笔记

    基本信息 论文题目:GRAPH ATTENTION NETWORKS 时间:2018 期刊:ICLR 主要动机 探讨图谱(Graph)作为输入的情况下如何用深度学习完成分类.预测等问题:通过堆叠这种层 ...

  5. graph attention network(ICLR2018)官方代码详解(tensorflow)-稀疏矩阵版

    论文地址:https://arxiv.org/abs/1710.10903 代码地址: https://github.com/Diego999/pyGAT 之前非稀疏矩阵版的解读:https://ww ...

  6. graph attention network(ICLR2018)官方代码详解(te4nsorflow)

    论文地址:https://arxiv.org/abs/1710.10903 代码地址: https://github.com/Diego999/pyGAT 我并没有完整看过这篇论文,但是在大致了解其原 ...

  7. 论文解读《Cauchy Graph Embedding》

    Paper Information Title:Cauchy Graph EmbeddingAuthors:Dijun Luo, C. Ding, F. Nie, Heng HuangSources: ...

  8. 目标检测论文解读1——Rich feature hierarchies for accurate object detection and semantic segmentation

    背景 在2012 Imagenet LSVRC比赛中,Alexnet以15.3%的top-5 错误率轻松拔得头筹(第二名top-5错误率为26.2%).由此,ConvNet的潜力受到广泛认可,一炮而红 ...

  9. 论文笔记:(2019)GAPNet: Graph Attention based Point Neural Network for Exploiting Local Feature of Point Cloud

    目录 摘要 一.引言 二.相关工作 基于体素网格的特征学习 直接从非结构化点云中学习特征 从多视图模型中学习特征 几何深度学习的学习特征 三.GAPNet架构 3.1 GAPLayer 局部结构表示 ...

随机推荐

  1. Oracle,SAP等暂停俄所有业务,国产化刻不容缓,无代码又该如何发力

    国产化刻不容缓 "如果不是自主可控的产品,我们这个行业可能有一天就瘫痪了."这句话最早是中国工程院院士倪先生预言的.然而,2022年的今天,由于俄乌战争,包括Oracle.SAP等 ...

  2. jdbc 02: 连接mysql,并实现删除与更新

    jdbc连接mysql,并实现删除与更新 package com.examples.jdbc.o2_删除与更新; import java.sql.*; //连接与插入 /* jdbc删除操作 */ p ...

  3. hexo-yilia主题支持twikoo评论系统

    如果图片无法加载,可到 我的博客 中,查看完整文章 yilia-more 已经增加对 twikoo 的支持,可直接使用 代码修改 layout/_partial/post 路径下新建 twikoo.e ...

  4. 2500-使用MyBatis操作MySQL进行批量更新的注意事项

    原则上一条SQL只更新一条数据库操作,但有时需要批量操作数据,特别是一些DML语句,在操作数据库时,数据库会报出异常,不允许混合语句,此时需要额外配置进行兼容. 例如: Caused by: com. ...

  5. 在centos7.6上部署前后端分离项目Nginx反向代理vue.js2.6+Tornado5.1.1,使用supervisor统一管理服务

    原文转载自「刘悦的技术博客」https://v3u.cn/a_id_102 这一次使用vue.js+tornado的组合来部署前后端分离的web项目,vue.js不用说了,前端当红炸子鸡,泛用性非常广 ...

  6. git diff与linux diff的输出格式之unified format

    前言 前面有一篇文章<一个有些意思的项目--文件夹对比工具(一)>,里面简单讲了下diff算法之--Myers算法. 既然是算法,就会有实现,比如git diff中有Myers的实现,gi ...

  7. 如何用WebGPU流畅渲染千万级2D物体:基于光追管线

    大家好~我们已经实现了百万级2D物体的流畅渲染,不过是基于计算管线实现的.本文在它的基础上,改为基于光追管线实现,主要进行了CPU和GPU端内存的优化,成功地将渲染的2D物体数量由4百万提高到了2千万 ...

  8. The Data Way Vol.1|风口下的开源:如何看待开源与商业的关系?

    关于「The Data Way」 「The Data Way」是由 SphereEx 公司出品的一档播客节目.这里有开源.数据.技术的故事,同时我们关注开发者的工作日常,也讨论开发者的生活日常:我们聚 ...

  9. day20--Java集合03

    Java集合03 8.LinkedList 1)linkedList底层实现了双向链表和双端队列的特点 2)可以添加任意元素(元素可以重复),包括null 3)线程不安全,没有实现同步 LinkedL ...

  10. BZOJ3572/Luogu3233 [Hnoi2014]世界树 (虚树) (Unfinished)

    我太弱了,这叼题先搁着把,来日方长,自有切时... ...或许吧 #include <iostream> #include <cstdio> #include <cstr ...