Spark学习笔记-GraphX-1

版权声明:本文为博主原创文章,未经博主允许不得转载。
Spark GraphX是一个分布式图处理框架,Spark GraphX基于Spark平台提供对图计算和图挖掘简洁易用的而丰富多彩的接口,极大的方便了大家对分布式图处理的需求。Spark GraphX由于底层是基于Spark来处理的,所以天然就是一个分布式的图处理系统。图的分布式或者并行处理其实是把这张图拆分成很多的子图,然后我们分别对这些子图进行计算,计算的时候可以分别迭代进行分阶段的计算,即对图进行并行计算。
Spark GraphX基本操作:
- import org.apache.spark.SparkContext
- import org.apache.spark._
- import org.apache.spark.graphx._
- import org.apache.spark.graphx.Graph
- import org.apache.spark.graphx.Edge
- import org.apache.spark.graphx.VertexRDD
- import org.apache.spark.graphx.util.GraphGenerators
- import org.apache.spark.graphx.GraphLoader
- import org.apache.spark.storage.StorageLevel
- import org.apache.spark.rdd.RDD
- object SparkGraphx1 {
- def main(args: Array[String]) {
- val sc = new SparkContext("spark://centos.host1:7077", "Spark Graphx")
- //创建点RDD
- val users: RDD[(VertexId, (String, String))] = sc.parallelize(Array(
- (3L, ("rxin", "student")), (7L, ("jgonzal", "postdoc")),
- (5L, ("franklin", "prof")), (2L, ("istoica", "prof"))))
- //创建边RDD
- val relationships: RDD[Edge[String]] = sc.parallelize(Array(
- Edge(3L, 7L, "collab"), Edge(5L, 3L, "advisor"),
- Edge(2L, 5L, "colleague"), Edge(5L, 7L, "pi")))
- //定义一个默认用户,避免有不存在用户的关系
- val defaultUser = ("John Doe", "Missing")
- //构造Graph
- val graph = Graph(users, relationships, defaultUser)
- //点RDD、边RDD过滤
- val fcount1 = graph.vertices.filter { case (id, (name, pos)) => pos == "postdoc" }.count
- println("postdocs users count: " + fcount1)
- val fcount2 = graph.edges.filter(edge => edge.srcId > edge.dstId).count
- println("srcId > dstId edges count: " + fcount2)
- val fcount3 = graph.edges.filter { case Edge(src, dst, prop) => src > dst }.count
- println("srcId > dstId edges count: " + fcount3)
- //Triplets(三元组),包含源点、源点属性、目标点、目标点属性、边属性
- val triplets: RDD[String] = graph.triplets.map(triplet => triplet.srcId + "-" +
- triplet.srcAttr._1 + "-" + triplet.attr + "-" + triplet.dstId + "-" + triplet.dstAttr._1)
- triplets.collect().foreach(println(_))
- //度、入度、出度
- val degrees: VertexRDD[Int] = graph.degrees;
- degrees.collect().foreach(println)
- val inDegrees: VertexRDD[Int] = graph.inDegrees
- inDegrees.collect().foreach(println)
- val outDegrees: VertexRDD[Int] = graph.outDegrees
- outDegrees.collect().foreach(println)
- //构建子图
- val subGraph = graph.subgraph(vpred = (id, attr) => attr._2 != "Missing")
- subGraph.vertices.collect().foreach(println(_))
- subGraph.triplets.map(triplet => triplet.srcAttr._1 + " is the " + triplet.attr + " of " + triplet.dstAttr._1)
- .collect().foreach(println(_))
- //Map操作,根据原图的一些特性得到新图,原图结构是不变的,下面两个逻辑是等价的,但是第一个不会被graphx系统优化
- val newVertices = graph.vertices.map { case (id, attr) => (id, (attr._1 + "-1", attr._2 + "-2")) }
- val newGraph1 = Graph(newVertices, graph.edges)
- val newGraph2 = graph.mapVertices((id, attr) => (id, (attr._1 + "-1", attr._2 + "-2")))
- //构造一个新图,顶点属性是出度
- val inputGraph: Graph[Int, String] =
- graph.outerJoinVertices(graph.outDegrees)((vid, _, degOpt) => degOpt.getOrElse(0))
- //根据顶点属性为出度的图构造一个新图,依据PageRank算法初始化边与点
- val outputGraph: Graph[Double, Double] =
- inputGraph.mapTriplets(triplet => 1.0 / triplet.srcAttr).mapVertices((id, _) => 1.0)
- //图的反向操作,新的图形的所有边的方向相反,不修改顶点或边性属性、不改变的边的数目,它可以有效地实现不必要的数据移动或复制
- var rGraph = graph.reverse
- //Mask操作也是根据输入图构造一个新图,达到一个限制制约的效果
- val ccGraph = graph.connectedComponents()
- val validGraph = graph.subgraph(vpred = (id, attr) => attr._2 != "Missing")
- val validCCGraph = ccGraph.mask(validGraph)
- //Join操作,原图外连出度点构造一个新图 ,出度为顶点属性
- val degreeGraph2 = graph.outerJoinVertices(outDegrees) { (id, attr, outDegreeOpt) =>
- outDegreeOpt match {
- case Some(outDeg) => outDeg
- case None => 0 //没有出度标识为零
- }
- }
- //缓存。默认情况下,缓存在内存的图会在内存紧张的时候被强制清理,采用的是LRU算法
- graph.cache()
- graph.persist(StorageLevel.MEMORY_ONLY)
- graph.unpersistVertices(true)
- //GraphLoader构建Graph
- var path = "/user/hadoop/data/temp/graph/graph.txt"
- var minEdgePartitions = 1
- var canonicalOrientation = false // if sourceId < destId this value is true
- val graph1 = GraphLoader.edgeListFile(sc, path, canonicalOrientation, minEdgePartitions,
- StorageLevel.MEMORY_ONLY, StorageLevel.MEMORY_ONLY)
- val verticesCount = graph1.vertices.count
- println(s"verticesCount: $verticesCount")
- graph1.vertices.collect().foreach(println)
- val edgesCount = graph1.edges.count
- println(s"edgesCount: $edgesCount")
- graph1.edges.collect().foreach(println)
- //PageRank
- val pageRankGraph = graph1.pageRank(0.001)
- pageRankGraph.vertices.sortBy(_._2, false).saveAsTextFile("/user/hadoop/data/temp/graph/graph.pr")
- pageRankGraph.vertices.top(5)(Ordering.by(_._2)).foreach(println)
- //Connected Components
- val connectedComponentsGraph = graph1.connectedComponents()
- connectedComponentsGraph.vertices.sortBy(_._2, false).saveAsTextFile("/user/hadoop/data/temp/graph/graph.cc")
- connectedComponentsGraph.vertices.top(5)(Ordering.by(_._2)).foreach(println)
- //TriangleCount主要用途之一是用于社区发现 保持sourceId小于destId
- val graph2 = GraphLoader.edgeListFile(sc, path, true)
- val triangleCountGraph = graph2.triangleCount()
- triangleCountGraph.vertices.sortBy(_._2, false).saveAsTextFile("/user/hadoop/data/temp/graph/graph.tc")
- triangleCountGraph.vertices.top(5)(Ordering.by(_._2)).foreach(println)
- sc.stop()
- }
- }
Spark学习笔记-GraphX-1的更多相关文章
- Spark学习笔记--Graphx
浅谈Graphx: http://blog.csdn.net/shangwen_/article/details/38645601 Pregel: http://blog.csdn.net/shang ...
- spark学习笔记总结-spark入门资料精化
Spark学习笔记 Spark简介 spark 可以很容易和yarn结合,直接调用HDFS.Hbase上面的数据,和hadoop结合.配置很容易. spark发展迅猛,框架比hadoop更加灵活实用. ...
- Spark学习笔记0——简单了解和技术架构
目录 Spark学习笔记0--简单了解和技术架构 什么是Spark 技术架构和软件栈 Spark Core Spark SQL Spark Streaming MLlib GraphX 集群管理器 受 ...
- Spark学习笔记之SparkRDD
Spark学习笔记之SparkRDD 一. 基本概念 RDD(resilient distributed datasets)弹性分布式数据集. 来自于两方面 ① 内存集合和外部存储系统 ② ...
- Spark学习笔记2(spark所需环境配置
Spark学习笔记2 配置spark所需环境 1.首先先把本地的maven的压缩包解压到本地文件夹中,安装好本地的maven客户端程序,版本没有什么要求 不需要最新版的maven客户端. 解压完成之后 ...
- Spark学习笔记3(IDEA编写scala代码并打包上传集群运行)
Spark学习笔记3 IDEA编写scala代码并打包上传集群运行 我们在IDEA上的maven项目已经搭建完成了,现在可以写一个简单的spark代码并且打成jar包 上传至集群,来检验一下我们的sp ...
- Spark学习笔记3——RDD(下)
目录 Spark学习笔记3--RDD(下) 向Spark传递函数 通过匿名内部类 通过具名类传递 通过带参数的 Java 函数类传递 通过 lambda 表达式传递(仅限于 Java 8 及以上) 常 ...
- Spark学习笔记2——RDD(上)
目录 Spark学习笔记2--RDD(上) RDD是什么? 例子 创建 RDD 并行化方式 读取外部数据集方式 RDD 操作 转化操作 行动操作 惰性求值 Spark学习笔记2--RDD(上) 笔记摘 ...
- Spark学习笔记1——第一个Spark程序:单词数统计
Spark学习笔记1--第一个Spark程序:单词数统计 笔记摘抄自 [美] Holden Karau 等著的<Spark快速大数据分析> 添加依赖 通过 Maven 添加 Spark-c ...
随机推荐
- day13 多个装饰器叠加 生成式
1.装饰器剩余 from functions import wraps @wrap(func) 会把func内的自带方法赋给wrapper,这样wrapper装饰函数就和原函数一模一样 多个装饰器叠加 ...
- 2019年华南理工大学程序设计竞赛(春季赛)-C-六学家的困惑
题目链接:https://ac.nowcoder.com/acm/contest/625/C 题意:给定两个字符串,每次只能从两个字符串的两端取字符,求依次取字符后所构成的数字最大为多少. 思路:思路 ...
- jsp页面之初体验
最近在学jsp 在web.xml页面中学到了如何让一个页面第一个启动
- 98. Validate Binary Search Tree (Tree; DFS)
Given a binary tree, determine if it is a valid binary search tree (BST). Assume a BST is defined as ...
- HDU 6214 Smallest Minimum Cut(最少边最小割)
Problem Description Consider a network G=(V,E) with source s and sink t. An s-t cut is a partition o ...
- 20165315 预备作业3 Linux安装及学习
20165315 预备作业3 Linux安装及学习 一.在自己笔记本上安装Linux操作系统 因为对操作电脑的不熟悉,我在第一项任务上就花费了一定的时间,在安装过程有如下问题: 我的电脑是苹果公司的M ...
- MyBatis代理开发(2)
一.开发步骤和程序代码 1.程序员需要编写user.xml映射文件,程序员编写mapper接口需要遵循一些开发规范,mybatis可以自动生成mapper接口实现类代理对象. 2.创建数据库配置文件 ...
- Dockerfile指令学习 (转)
原文地址:http://blog.csdn.net/we_shell/article/details/38445979 Dockfile是一种被Docker程序解释的脚本,Dockerfile由一条一 ...
- 2017.9.26JQuery源码解析一 架构与依赖
jq1.0: css选择符 事件处理 ajax交互 1.2.3: 引入数据缓存,解决循环引用与大数据保存问题 1.3. : 使用全新的选择器引擎sizzle,在各个浏览器下全面超越其他同类js ...
- bootstrap之双日历时间段选择控件—daterangepicker(汉化版)
jQuerybootstrapdaterangepicker汉化版 双日历时间段选择插件 — daterangepicker是bootstrap框架后期的一个时间控件,可以设定多个时间段选项,也可以自 ...