GPU虽能高效执行神经网络张量运算,但内存有限。针对超出GPU内存容量的大规模图神经网络训练,传统方法需通过CPU随机选择节点和边组成小批量数据,并连同节点特征一并传输至GPU。这种递归邻居采样方式导致大量CPU-GPU数据传输,成为模型训练中最耗时的环节。
通过减少90%以上的CPU-GPU数据传输,GNS将训练瓶颈从数据搬运转向实际计算,为十亿级节点规模的图神经网络训练提供实用解决方案。该方法已发表于KDD 2021会议,相关代码实现同步公开。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。