news 2026/2/9 7:52:02

Spark实战:在GraphX中创建和计算图

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Spark实战:在GraphX中创建和计算图

文章目录

  • 1. 实战概述
  • 2. 实战步骤
    • 2.1 用户关系网络图
    • 2.2 准备数据文件
      • 2.2.1 创建本地文件
      • 2.2.2 创建HDFS目录
      • 2.2.3 上传数据文件到HDFS
    • 2.3 创建与存储图
      • 2.3.1 创建图
        • 2.3.1.1 导入GraphX包
        • 2.3.1.2 根据有属性的顶点和边构建图(`Graph()`)
        • 2.3.1.3 根据边创建图(`Graph.fromEdges()`)
        • 2.3.1.4 根据边的两个顶点的二元组创建图(`Graph.fromEdgeTuples()`)
      • 2.3.2 缓存与释放图
    • 2.4 查询与转换数据
      • 2.4.1 数据查询
      • 2.4.2 数据转换
    • 2.5 转换结构与关联聚合数据
      • 2.5.1 结构转换
      • 2.5.2 数据关联聚合
  • 3. 实战总结

1. 实战概述

  • 本次实战围绕 Spark GraphX 构建学术用户关系网络图展开,通过准备顶点与边数据、上传至 HDFS,并使用Graph()Graph.fromEdges()Graph.fromEdgeTuples()三种方式创建图对象,验证了图的正确加载与结构完整性,为后续图计算奠定基础。

2. 实战步骤

2.1 用户关系网络图

  • 绘制用户关系网络图
  • 该图展示了一个学术用户关系网络:节点代表用户(如学生、教授、博士后),边表示关系(如导师、同事、合作者)。例如,mike 是 brown 的学生,green 与 mike 合作,brown 与 alice 为同事,green 也是 brown 的 PI。体现了学术协作与层级结构。

2.2 准备数据文件

2.2.1 创建本地文件

  1. 创建用户关系网络图顶点数据文件

    • 执行命令:vim vertices.txt
  2. 创建用户关系网络图边数据文件

    • 执行命令:vim edges.txt

2.2.2 创建HDFS目录

  • 执行命令:hdfs dfs -mkdir -p /graphx/data

2.2.3 上传数据文件到HDFS

  • 执行命令:hdfs dfs -put vertices.txt /graphx/data
  • 执行命令:hdfs dfs -put edges.txt /graphx/data

2.3 创建与存储图

2.3.1 创建图

2.3.1.1 导入GraphX包
  • 执行命令
    scala import org.apache.spark._ import org.apache.spark.graphx._ import org.apache.spark.rdd.RDD

  • 结果说明:该图展示了在 Spark Shell 中成功导入核心包的过程。三条import语句分别引入了 Spark 核心、GraphX 图计算和 RDD 操作相关类,为后续分布式数据处理和图算法开发做好准备,表明环境配置正确,可进行 Spark 编程。

2.3.1.2 根据有属性的顶点和边构建图(Graph()
  • 构造有属性的顶点和边的图

    // 创建顶点 RDDvalusers:RDD[(VertexId,(String,String))]=sc.textFile("hdfs://master:9000/graphx/data/vertices.txt").map{line=>valfields=line.split(" ")(fields(0).toLong,(fields(1),fields(2)))}// 创建边 RDDvalrelationships:RDD[Edge[String]]=sc.textFile("hdfs://master:9000/graphx/data/edges.txt").map{line=>valfields=line.split(" ")Edge(fields(0).toLong,fields(1).toLong,fields(2))}// 定义默认用户(用于处理缺失顶点)valdefaultUser=("Black Smith","Missing")// 构建图对象valgraph_urelate=Graph(users,relationships,defaultUser)

  • 结果说明:代码成功在 Spark Shell 中执行,从 HDFS 加载顶点和边数据,构建了 GraphX 图对象。输出显示 users 和 relationships RDD 已创建,defaultUser 定义完成,最终生成 graph_urelate 图实例,表明图结构构建成功,可进行后续图计算操作。

  • 查询图的顶点,执行命令:graph_urelate.vertices.collect.foreach(println)

  • 结果说明:执行命令后,输出了图中所有顶点的属性信息,显示了每个用户节点的 ID 和对应的角色(如 alice 是 professor,mike 是 student 等),表明图的顶点数据已成功加载并可访问,验证了 GraphX 图结构构建正确。

  • 查询图的边,执行命令:graph_urelate.edges.collect.foreach(println)

  • 结果说明:执行命令后,输出了图中所有边的信息,显示了节点之间的关系类型,如 3 和 7 是合作者(Collaborator),5 和 3 是导师关系(Advisor)等,表明图的边数据已正确加载,验证了用户关系网络结构构建成功。

2.3.1.3 根据边创建图(Graph.fromEdges()
  • 利用Graph.fromEdges()方法创建图

    // 读取边数据文件valrecords:RDD[String]=sc.textFile("hdfs://master:9000/graphx/data/edges.txt")// 解析每行数据为 Edge 对象valfollowers:RDD[Edge[String]]=records.map{line=>valfields=line.split(" ")Edge(fields(0).toLong,fields(1).toLong,fields(2))}// 基于边构建图(顶点属性统一设为默认值 1L)valgraphFromEdges=Graph.fromEdges(followers,defaultValue=1L)

  • 结果说明:代码成功从 HDFS 读取边数据并解析为 Edge RDD,构建了图对象graph_fromEdges。输出显示 records、followers 和 graph_fromEdges 均已正确创建,表明边数据加载和图结构初始化完成,可进行后续图计算操作。

  • 查询图的顶点,执行命令:graph_fromEdges.vertices.collect.foreach(println)

  • 结果说明:该命令输出了图中所有顶点的 ID 及其属性,显示每个节点的值均为 1(默认值),表明Graph.fromEdges成功从边数据推导出顶点集合,并为每个顶点分配了统一的默认属性,验证了图结构构建正确。

  • 查询图的边,执行命令:graph_fromEdges.edges.collect.foreach(println)

  • 结果说明:该命令输出了图中所有边的信息,显示了节点之间的关系类型,如 3 和 7 是合作者(Collaborator),5 和 3 是导师关系(Advisor)等,表明边数据已正确加载并保留原始属性,验证了图结构构建成功。

2.3.1.4 根据边的两个顶点的二元组创建图(Graph.fromEdgeTuples()
  • 提示:此方式适用于仅需源点和目标点、忽略边属性的场景。若需保留关系类型(如 “Advisor”),应使用 Edge 对象而非二元组。

  • 利用Graph.fromEdgeTuples()方法创建图

    // 读取边数据文件valrecords:RDD[String]=sc.textFile("hdfs://master:9000/graphx/data/edges.txt")// 解析为 (srcId, dstId) 二元组 RDDvaledgesRDD:RDD[(VertexId,VertexId)]=records.map(line=>line.split(" ")).map(fields=>(fields(0).toLong,fields(1).toLong))// 基于边二元组构建图(顶点属性设为默认值 1L)valgraphFromEdgeTuples=Graph.fromEdgeTuples(edgesRDD,defaultValue=1L)

  • 结果说明:代码成功从 HDFS 读取边数据,解析为顶点 ID 的二元组 RDD,并通过Graph.fromEdgeTuples构建图对象。输出显示 records、edgesRDD 和 graphFromEdgeTuples 均已正确创建,表明图结构初始化成功,可进行后续图计算操作。

  • 查询图的顶点,执行命令:graphFromEdgeTuples.vertices.collect.foreach(println)

  • 结果说明:该命令输出了图中所有顶点的 ID 及其默认属性值(1),表明Graph.fromEdgeTuples成功从边数据推导出顶点集合,并为每个顶点分配统一默认属性,验证了图结构构建正确,顶点信息完整。

  • 查询图的边,执行命令:graphFromEdgeTuples.edges.collect.foreach(println)

  • 结果说明:该命令输出了图中所有边的结构,显示每条边的源点、目标点及默认属性值(1),表明Graph.fromEdgeTuples成功构建了边集合,且边数据完整保留,验证了图的边信息正确加载并可访问。

2.3.2 缓存与释放图

2.4 查询与转换数据

2.4.1 数据查询

2.4.2 数据转换

2.5 转换结构与关联聚合数据

2.5.1 结构转换

2.5.2 数据关联聚合

3. 实战总结

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/5 20:52:51

radix_tree_node(约 7.3 GB)

目录标题📌 **一、整体内存情况(free -h)**📌 **二、Slab 占用(slabtop)总计约 13.4GB**🔥 **三、异常 slab 项分析****① radix_tree_node(约 7.3 GB)——最大问题源**&…

作者头像 李华
网站建设 2026/2/5 14:25:10

互联网大厂Java求职面试深度指导——场景、问答及代码案例解析

互联网大厂Java求职面试深度指导——场景、问答及代码案例解析 本文为互联网大厂Java岗位求职者面试设计了一套完整的技术提问方案,涵盖常见的核心技术栈和典型业务场景,适合Java开发者系统化备考和提升面试竞争力。每轮面试包含3-5个循序渐进、紧密相关…

作者头像 李华
网站建设 2026/2/4 16:59:32

OpCore Simplify:终极Hackintosh配置解决方案

OpCore Simplify:终极Hackintosh配置解决方案 【免费下载链接】OpCore-Simplify A tool designed to simplify the creation of OpenCore EFI 项目地址: https://gitcode.com/GitHub_Trending/op/OpCore-Simplify 你是否曾经被复杂的OpenCore EFI配置困扰&am…

作者头像 李华
网站建设 2026/2/5 20:04:32

PolarDB - PostgreSQL

目录标题主备也是用patronipatroni 主备 - 备数据库代理 maxscale主备也是用patroni patroni 主备 - 备 数据库代理 maxscale

作者头像 李华
网站建设 2026/2/7 10:39:17

POCO C++库:构建高性能网络应用的终极解决方案

POCO C库:构建高性能网络应用的终极解决方案 【免费下载链接】poco The POCO C Libraries are powerful cross-platform C libraries for building network- and internet-based applications that run on desktop, server, mobile, IoT, and embedded systems. 项…

作者头像 李华
网站建设 2026/2/7 12:28:38

WebPlotDigitizer 数据提取终极教程:从入门到精通

您是否曾为从科研图表中提取精确坐标而头疼?面对那些只有图像格式的学术图表,手动记录数据既耗时又容易出错。WebPlotDigitizer 正是为解决这一痛点而生,让图表数据提取变得轻松高效。 【免费下载链接】WebPlotDigitizer安装包 WebPlotDigiti…

作者头像 李华