import org.apache.spark.graphx._
import org.apache.spark.rdd.RDD
val vertexArray = Array(
(1L, ("Alice", 28)),
(2L, ("Bob", 27)),
(3L, ("Charlie", 65)),
(4L, ("David", 42)),
(5L, ("Ed", 55)),
(6L, ("Fran", 50)),
(7L, ("Tian", 55))
)
//边的数据类型ED:Int
val edgeArray = Array(
Edge(2L, 1L, 7),
Edge(2L, 4L, 2),
Edge(3L, 2L, 4),
Edge(3L, 6L, 3),
Edge(4L, 1L, 1),
Edge(5L, 2L, 2),
Edge(5L, 3L, 8),
Edge(5L, 6L, 3),
Edge(7L, 3L, 8),
Edge(7L, 6L, 3),
Edge(7L, 6L, 6)
)
val vertexRDD: RDD[(Long, (String, Int))] = sc.parallelize(vertexArray)
val edgeRDD: RDD[Edge[Int]] = sc.parallelize(edgeArray)
val graph: Graph[(String, Int), Int] = Graph(vertexRDD, edgeRDD)

scala> import scala.collection.immutable.HashSet
import scala.collection.immutable.HashSet

获取顶点3的首度邻居

scala> val firstNeighbor=graph.aggregateMessages[Int](triplet=>{if(triplet.srcId==3) triplet.sendToDst(1)},(a,b)=>a )
firstNeighbor: org.apache.spark.graphx.VertexRDD[Int] = VertexRDDImpl[21] at RDD at VertexRDD.scala:57

scala> var fistids=new HashSet[Long]()
fistids: scala.collection.immutable.HashSet[Long] = Set()

scala> firstNeighbor.collect.foreach(a=>fistids+=a._1)

顶点3的首度邻居列表如下
scala> fistids
res1: scala.collection.immutable.HashSet[Long] = Set(6, 2)

边信息如下:

Edge(3L, 2L, 4),
Edge(3L, 6L, 3),

可以确定首度邻居为2,6

对顶点3的首度邻居进行循环获取二度邻居的顶点ID列表

scala> var secondids=new HashSet[Long]()
secondids: scala.collection.immutable.HashSet[Long] = Set()

scala> fistids.foreach(a=>{val secondneibors=graph.aggregateMessages[Int](trp=>{if(trp.srcId==a) trp.sendToDst(1)},(a,b)=>a);secondneibors.collect.foreach(a=>{secondids+=a._1})})

scala> secondids
res7: scala.collection.immutable.HashSet[Long] = Set(1, 4)

根据边可以看出,6没有出度

2的出度为1和4

获取二度邻居的信息

scala> graph.vertices.filter(a=>secondids.contains(a._1)).collect
res8: Array[(org.apache.spark.graphx.VertexId, (String, Int))] = Array((1,(Alice,28)), (4,(David,42)))

获取一度二度关系

scala> graph.vertices.filter(a=>secondids.contains(a._1) || fistids.contains(a._1)).collect
res10: Array[(org.apache.spark.graphx.VertexId, (String, Int))] = Array((1,(Alice,28)), (2,(Bob,27)), (4,(David,42)), (6,(Fran,50)))

----------------------------------------

顶点2的入度出度邻居

scala> graph.collectNeighbors(EdgeDirection.Either).filter(_._1==2).map(_._2).collect
res15: Array[Array[(org.apache.spark.graphx.VertexId, (String, Int))]] = Array(Array((1,(Alice,28)), (4,(David,42)), (3,(Charlie,65)), (5,(Ed,55))))

顶点2的入度邻居

scala> graph.collectNeighbors(EdgeDirection.In).filter(_._1==2).map(_._2).collect
res16: Array[Array[(org.apache.spark.graphx.VertexId, (String, Int))]] = Array(Array((3,(Charlie,65)), (5,(Ed,55))))

顶点2的出度邻居

scala> graph.collectNeighbors(EdgeDirection.Out).filter(_._1==2).map(_._2).collect
res17: Array[Array[(org.apache.spark.graphx.VertexId, (String, Int))]] = Array(Array((1,(Alice,28)), (4,(David,42))))

------------------------------------------------------

其他方式 获取二度出度邻居

scala> val firstNids=graph.collectNeighborIds(EdgeDirection.Out).filter(_._1==3).map(a=>a._2).first
firstNids: Array[org.apache.spark.graphx.VertexId] = Array(2, 6)

scala> graph.collectNeighbors(EdgeDirection.Out).filter(a=>firstNids.contains(a._1)).map(_._2).filter(_.length>0).first
res116: Array[(org.apache.spark.graphx.VertexId, (String, Int))] = Array((1,(Alice,28)), (4,(David,42)))

--------------------------------------------------

获取双向二度邻居

获取顶点3的邻居ID列表

scala> val firstNids=graph.collectNeighborIds(EdgeDirection.Either).filter(_._1==3).map(a=>a._2).first
firstNids: Array[org.apache.spark.graphx.VertexId] = Array(2, 6, 5, 7)

获取首度邻居顶点的邻居,生成一个多维数组,使用reduce 合并多维数组为一维数组并去重,然后将顶点3以及顶点3的邻居过滤掉获取二度邻居

scala> graph.collectNeighbors(EdgeDirection.Either).filter(a=>firstNids.contains(a._1)).map(_._2).reduce((a,b)=>a++b).distinct.filter(a=>{!firstNids.contains(a._1) && a._1!=3 })
res155: Array[(org.apache.spark.graphx.VertexId, (String, Int))] = Array((1,(Alice,28)), (4,(David,42)))

Graphx二度关系的更多相关文章

  1. 基于Spark GraphX计算二度关系

    关系计算问题描述 二度关系是指用户与用户通过关注者为桥梁发现到的关注者之间的关系.目前微博通过二度关系实现了潜在用户的推荐.用户的一度关系包含了关注.好友两种类型,二度关系则得到关注的关注.关注的好友 ...

  2. Spark 计算人员二度关系

    1.一度人脉:双方直接是好友 2.二度人脉:双方有一个以上共同的好友,这时朋友网可以计算出你们有几个共同的好友并且呈现数字给你.你们的关系是: 你->朋友->陌生人 3.三度人脉:即你朋友 ...

  3. Hadoop MapReduce实现人员二度关系运算

    1.一度人脉:双方直接是好友 2.二度人脉:双方有一个以上共同的好友,这时朋友网可以计算出你们有几个共同的好友并且呈现数字给你.你们的关系是: 你->朋友->陌生人 3.三度人脉:即你朋友 ...

  4. 海量数据的二度人脉挖掘算法(Hadoop 实现)

    最近做了一个项目,要求找出二度人脉的一些关系,就好似新浪微博的“你可能感兴趣的人” 中,间接关注推荐:简单描述:即你关注的人中有N个人同时都关注了 XXX . 在程序的实现上,其实我们要找的是:若 U ...

  5. Spark 计算人员三度关系

    1.一度人脉:双方直接是好友 2.二度人脉:双方有一个以上共同的好友,这时朋友网可以计算出你们有几个共同的好友并且呈现数字给你.你们的关系是: 你->朋友->陌生人 3.三度人脉:即你朋友 ...

  6. MapReduce实现二度好友关系

    一.问题定义 我在网上找了些,关于二度人脉算法的实现,大部分无非是通过广度搜索算法来查找,犹豫深度已经明确了2以内:这个算法其实很简单,第一步找到你关注的人:第二步找到这些人关注的人,最后找出第二步结 ...

  7. GraphX实现N度关系

    背景 本文给出了一个简单的计算图中每一个点的N度关系点集合的算法,也就是N跳关系. 之前通过官方文档学习和理解了一下GraphX的计算接口. N度关系 目标: 在N轮里.找到某一个点的N度关系的点集合 ...

  8. SparkGraphx计算指定节点的N度关系节点

    直接上代码: package horizon.graphx.util import java.security.InvalidParameterException import horizon.gra ...

  9. 使用MapReduce实现二度人脉搜索算法

    一,背景介绍 在新浪微博.人人网等社交网站上,为了使用户在网络上认识更多的朋友,社交网站往往提供类似“你可能感兴趣的人”.“间接关注推荐”等好友推荐的功能,其中就包含了二度人脉算法. 二,算法实现 原 ...

  10. 依据二度人脉推荐好友sql

    friend表结构 DROP TABLE IF EXISTS FRIEND; create table friend(     uid        bigint not null comment ' ...

随机推荐

  1. Day 11 11.1 Xpath解析

    xpath解析 xpath在Python的爬虫学习中,起着举足轻重的地位,对比正则表达式 re两者可以完成同样的工作,实现的功能也差不多,但xpath明显比re具有优势,在网页分析上使re退居二线. ...

  2. mysql实训

    MYSQL You have an error in your SQL syntax; check the manual that corresponds to your MySQL server v ...

  3. css制作仿商城侧边导航

    <!DOCTYPE html> <html> <head> <meta charset="utf-8" /> <title&g ...

  4. JDK8的异步处理方式-CompletableFuture的使用

    一.背景 jdk8中加入了实现类CompletableFuture,用于异步编程.底层做任务使用的是ForkJoin, 顾名思义,是将任务的数据集分为多个子数据集,而每个子集,都可以由独立的子任务来处 ...

  5. js 比较两个数组对象,取不同的值

    let array1 = [ {'Num': 'A ', 'Name': 't1 '}, {'Num': 'B', 'Name': 't2'}, {'Num': 'C ', 'Name': 't3 ' ...

  6. 【SSO单点系列】(2):CAS4.0 之 跨域 Ajax 登录实践

    CAS4.0 之 跨域 Ajax 登录实践 一.问题描述 CAS实现单点 实现一处登录 可访问多个应用 . 但是原登录是CAS默认登录页面和登出页面是无法重定向到自定义页面的   此处使用Ajax+I ...

  7. 同一系统开启两个ftp进程

    1.正常情况是yum 安装vsftpd服务 ,在/etc/vsftpd目录更改配置,起服务.这样启动是一个服务. 2.启动第二个vsftpd服务 #创建虚拟用户 useradd -d /home/vi ...

  8. linux 系统⽇常管理--运维必备

    [监控系统的状态] 1. w 查看当前系统的负载 相信所有的linux管理员最常⽤的命令就是这个'w' 了,该命令显⽰的信息还是蛮丰富 的.第⼀⾏从左⾯开始显⽰的信息依次为:时间,系统运⾏时间,登录⽤ ...

  9. opencv基本函数详解笔记

    一.读取保存图片 Mat scrImage = imread("1.jpg"); //显示图像 imshow("原图", scrImage); //窗口等待 w ...

  10. 20211306丁文博 python技能树、CSDN MarkDown编辑器

    测评内容: python技能树.CSDN MarkDown编辑器 指导老师:王志强 班级:2113 学号:20211306 姓名:丁文博 https://blog.csdn.net/weixin_62 ...