AOGNets:首个语法生成网络,视觉识别优于当前最先进框架
【新智元导读】神经网络结构是提高深度神经网络性能的基础。研究人员开发出了首个通过语法引导的神经网络生成器AOGNets,它能更有效地在原始数据中提取信息,在图像分类、目标检测和分割方面的表现优于包括ResNets、DenseNets、ResNeXts和DualPathNets在内最先进的神经网络。
北卡罗莱纳州立大学的研究人员开发了一个通过语法指导的网络生成器来打造深度神经网络的新框架。在实验测试中,被称为AOGNets的新网络在视觉识别任务方面优于现有的最先进的框架,包括广泛使用的ResNet和DenseNet系统。
作为这项研究中一篇论文的作者,北卡罗莱纳州立大学电子与计算机工程副教授吴田富博士说:“与我们对比过的任何一个网络相比,AOGNets都具有更好的预测精度。” AOGNets也更容易解释,这意味着用户可以看到系统是如何得出结论的。”
新框架对系统架构使用了一个组合语法方法,该方法可以从以前的网络系统上获取最佳实践,从而更有效地从原始数据中提取有用的信息。
吴教授说:“我们发现,层次和组合语法为我们提供了一种简单、优雅的方法来统一以前系统架构所采用的方法,据我们所知,这是第一个将语法用于网络生成的成果。”
为了测试他们的新框架,研究人员开发了AOGNets,并将其用三个图像分类基准(CIFAR-10、CIFAR-100和ImageNet-1K)进行了测试。
“在公平比较下,AOGNets的表现明显优于其他所有最先进的网络,包括ResNets, DenseNets, ResNeXts和DualPathNets。” 吴田富说:”利用图像网络中的网络剖分度量,AOGNets获得了最高的模型可解释性分。AOGNets在对抗性防御和平台不可知( platform-agnostic)部署(移动vs云)方面进一步显示出巨大的潜力。”
研究人员还使用vanilla Mask R-CNN系统在微软Coco基准测试中测试了AOGNets在目标检测和实例语义分割方面的表现。
“在模型尺寸更小、推理时间相似或更短的情况下,AOGNets比ResNet和ResNeXt获得了更好的结果。” 吴教授表示:“结果表明,在目标检测和分割任务中,AOGNets具有较好的学习效果。”
这些测试是相关的,因为图像分类是视觉识别的核心基础任务之一,而ImageNet是标准的大规模分类基准。同样,目标检测和分割是两个核心的高级视觉任务,而MS-COCO是最广泛使用的基准之一。
“为了评估用于视觉识别中进行深度学习的新网络体系结构,它们是黄金试验台。” 吴田富说道:“AOGNets是在一个有原则的语法框架下开发的,并在ImageNet和MS-COCO下都得到了显著的改进,从而对许多实际应用中的表示学习显示出潜在的广泛和深刻的影响。”
吴教授说:“我们对语法指导的AOGNets框架感到兴奋,并正在探索它在其他深度学习应用中的表现,如深度自然语言理解、深度生成性学习和深度强化学习。”
论文《AOGNets: 用于深度学习的复合语法体系结构》将于6月16日至20日在加州长滩举行的IEEE计算机视觉和模式识别会议上发表。论文的第一作者是Xilai Li,一名北卡罗莱纳州立大学的博士生。这篇论文是由一位独立研究员Xi Song共同撰写。
参考来源:
https://techxplore.com/news/2019-05-framework-deep-neural-networks.html