PNAS速递:提醒图卷积神经高效的原因
2024-04-02 21:15:56新闻中心

  图神经网络 (GNN) 最近在天气预报、猜测颗粒材猜中的力或了解生物分子等许多问题上取得了令人形象十分深入的效果。它们渐渐的变成了具有联系信息的数据集事实上的机器学习模型,例如蛋白质图中的交互或交际网络中的友谊。这些成功事例引发了一波针对更多样、更强壮图网络架构的研讨浪潮,例如图卷积神经网络(GCN)。但截止现在,研讨这些网络为何以及怎样来完成强壮功能(包含其泛化才能)的理论作业还较少。

  在机器学习模型的两层下降现象中,当模型复杂度超越数据点数时,在到达峰值之后错误率会再次下降——构成第二个“U形”曲线。最新发表于PNAS的研讨,研讨者经过试验观察到的“传导性”两层下降现象,运用统计物理学和随机矩阵理论的剖析东西,精确地描绘了在上下文随机块模型上,简略图卷积网络的泛化。

  研讨结果提醒了在同质性与异质性数据上学习的细微差别,并猜测了图网络中存在两层下降的现象。经过一系列剖析图噪声、特征噪声和练习标签数量之间的相互作用,该研讨展现了危险是怎么被塑形的。这些发现不只适用于风格化模型,还能捕捉到实在国际和数据会集的定性趋势。使用本文剖析,能愈加进一步进步异质数据集上图卷积网络模型的功能。

  图1 在具有不一样噪声水平的数据集上,针对不同图神经网络架构、不同丢失(有或没有显式正则化)的双下降泛化。使命为节点分类,赤色为测验差错,黑色为测验准确性。

  本文为汹涌号作者或组织在汹涌新闻上传并发布,仅代表该作者或组织观念,不代表汹涌新闻的观念或态度,汹涌新闻仅供给信息发布渠道。请求汹涌号请用电脑拜访。

Copyright © 2018 安博体育app全站下载 All Rights Reserved
网站地图 备案信息: 湘ICP备14017517