首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

神经网络新方法中的对抗性训练大大提高了神经网络鲁棒性

洛斯阿拉莫斯国家实验室(Los Alamos National Laboratory)的一个团队开发了一种比较神经网络的新方法,该方法能在人工智能的“黑盒子”中寻找,帮助研究人员理解神经网络行为。神经网络识别数据集中的模式在社会中无处不在,多数应用于虚拟助理、面部识别系统和自动驾驶汽车等。

洛斯阿拉莫斯网络系统高级研究小组的研究员海顿·琼斯(Haydn Jones)说:“人工智能研究界不一定完全了解神经网络在做什么。它们给我们带来了很好的结果,但我们不知道如何或为什么。我们的新方法在比较神经网络方面做得更好,这是更好地理解人工智能背后的数学的关键一步。”

Jones是最近在人工智能不确定性会议上发表的论文《如果你训练了一个人,那么你就训练了所有人:架构间的相似性随着鲁棒性的增加而增加》的主要作者。除了研究网络相似性之外,本文也是描述鲁棒神经网络行为的关键步骤。

神经网络具有高性能,但很脆弱。例如,自动驾驶汽车使用神经网络来检测标志。当条件理想时,他们做得很好。然而,很小的偏差(比如停车标志上的标签)可能会导致神经网络错误识别标志,并且永远不会停止。

为了改进神经网络,研究人员正在寻找提高网络鲁棒性的方法。一种最先进的方法是在训练过程中“攻击”网络。研究人员有意引入畸变,并训练人工智能忽略它们。这一过程被称为对抗性训练,从本质上说,它使欺骗网络变得更加困难。

Jones、Los Alamos的合作者Jacob Springer和Garrett Kenyon以及Jones的导师Juston Moore将他们新的网络相似性度量应用于对抗性训练的神经网络,他们发现,令人惊讶的是,对抗性训练导致计算机视觉领域的神经网络收敛到非常相似的数据表示,随着攻击强度的增加。

琼斯说:“我们发现,当我们训练神经网络对对抗性攻击具有鲁棒性时,它们开始做同样的事情。”

工业界和学术界已经做出了广泛的努力,寻找神经网络的“正确架构”,但洛斯阿拉莫斯团队的发现表明,引入对抗性训练大大缩小了搜索空间。因此,人工智能研究社区可能不需要花太多时间探索新的架构,因为他们知道对抗性训练会导致不同的架构收敛到类似的解决方案。

琼斯说:“通过发现强健的神经网络彼此相似,我们可以更容易地理解强健的人工智能到底是如何工作的。我们甚至可以发现人类和其他动物如何感知的线索。”

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20220915A0790U00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券