真的需要深度图
神经网络吗?
深度学习的一大特点就是使用的神经网络具有几十层甚至数百层。与之形成鲜明对比的是,大多数用于图深度学习的架构都很“浅”,只有少量的层。伦敦帝国理工学院的Michael Bronstein提出了一个看上去有些离经叛道的问题:图神经网络架构的深度能否带来任何优势?深度是否应该被认为对图的学习是有害的?
观察到了一些图深度架构的现象,例如,性能随深度而下降,但是,它可能仅仅是源于对小数据集的过拟合所致。目前并没有定论。或许还需要进行一些精心设计的特定实验,以便更好地理解深度在图
深度学习是否有用,以及何时有用。