#今日论文推荐# AAAI 2022 | ProtGNN:自解释图神经网络络
1、论文介绍
尽管最近在图神经网络 (GNNs) 方面取得了进展,但解释图神经网络的预测仍然具有挑战性。现有的解释方法主要集中在事后解释上,其中使用另一个解释模型为一个训练过的 GNN 提供解释。事后方法未能揭示 GNN 的原始推理过程,这一事实提出了构建具有内置可解释性的 GNN 的需要。
在这项工作中,作者提出了原型图神经网络 (ProtGNN),它将原型学习与 GNN 结合起来,为 GNN 的解释提供了一个新的视角。在 ProtGNN 中,解释自然来源于基于案例的推理过程,实际上在分类过程中使用。ProtGNN 的预测是通过将输入与潜在空间中的一些学习原型进行比较而得到的。
此外,为了更好的可解释性和更高的效率,作者引入了一个新的条件子图采样模块来指示输入图的哪一部分与 ProtGNN+ 中的每个原型最相似。最后,作者在广泛的数据集上评估了模型,并进行了具体的案例研究。广泛的结果表明,ProtGNN 和 ProtGNN+ 可以提供内在的可解释性,同时实现与不可解释性的对等对象相当的性能。
2、论文方法
作者利用原型学习的概念来构建具有内置可解释性的 GNN(即自我解释的 GNN)。与事后解释方法相比,自我解释 GNN 所产生的解释实际上是在分类过程中使用的,而不是在分类后产生的。基于原型学习构建自我解释的 GNN 带来了独特的挑战。首先,边缘的离散性使得图形原型的投影和可视化变得困难。其次,图结构的组合性质使得很难建立高效和高精度的自解释模型。文中为解决上述挑战,并提出了原型图神经网络 (ProtGNN),这为 GNN 的解释提供了一个新的视角。
论文题目:ProtGNN: Towards Self-Explaining Graph Neural Networks
详细解读:https://www.aminer.cn/research_report/6304c88c7cb68b460f0a1fb0https://www.aminer.cn/research_report/6304c88c7cb68b460f0a1fb0
AMiner链接:https://www.aminer.cn/?f=cs
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。