设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

中国科大突破图神经网络训练瓶颈,Capsule 系统性能提升 12 倍

2025/2/23 17:59:48 来源:IT之家 作者:问舟 责编:问舟

IT之家 2 月 23 日消息,2 月 11 日,中国科大苏州高等研究院医学影像智能与机器人研究中心 DDL 实验室宣布,团队在大规模图神经网络(GNN)训练系统方面的研究论文被国际知名学术会议 ACM International Conference on Management of Data(SIGMOD)2025 录用。

图神经网络(GNN)的主流训练框架,如 DGL 和 PyG,利用 GPU 的并行处理能力从图数据中提取结构信息,在推荐系统、自然语言处理、计算化学和生物信息学等领域展现出卓越性能。

尽管 GPU 在 GNN 训练中提供了强大的计算优势,但其有限的显存容量难以容纳庞大的图数据,因而现有 GNN 系统在大规模图数据上的扩展性方面仍面临挑战。

对此,DDL 实验室团队提出了一种新的核外(Out-of-Core)GNN 训练框架 ——Capsule,为大规模图神经网络训练提供了高效的解决方案。

与现有的核外 GNN 框架不同,该系统通过图划分和图裁剪策略将训练子图结构及其特征完全放入 GPU 显存之中从而消除了反向传播过程中 CPU 与 GPU 之间的 I/O 开销,进而显著提升了系统性能。

此外,Capsule 通过设计基于最短哈密顿回路的子图加载方式和流水线并行策略,进一步优化了性能。同时,Capsule 具备即插即用的特性,能够无缝集成至主流开源 GNN 训练框架中。在大规模真实图数据集上,Capsule 与现有最好的系统相比能够在仅使用 22.24% 的内存下带来最高 12.02 倍的性能提升,并提供了关于训练所得嵌入方差的理论上界。

这一成果标志着我国在图计算系统领域取得重要突破,为社交网络分析、生物医学图谱构建等需处理超大规模图数据的场景提供了全新解决方案。

IT之家附论文链接:
https://doi.org/10.1145/3709669

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

软媒旗下网站: IT之家 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 软媒手机APP应用 魔方 最会买 要知