PNAS新研究:剑桥学者发现,有些 AI 模型无法被计算

PNAS新研究:剑桥学者发现,有些 AI 模型无法被计算
文章图片
作者|Ailleurs
编辑|陈彩娴
近日 , 剑桥学者在《美国科学院院报》(PNAS)上发表了一篇名为“TheDifficultyofComputingStableandAccurateNeuralNetworks:OntheBarriersofDeepLearningandSmale's18thProblem”的文章 , 提出了一个有趣的发现:
研究者可以证明存在具有良好近似质量的神经网络 , 但不一定存在能够训练(或计算)这类神经网络的算法 。
PNAS新研究:剑桥学者发现,有些 AI 模型无法被计算】论文地址:http://www.damtp.cam.ac.uk/user/mjc249/pdfs/PNAS_Stable_Accurate_NN.pdf
这与图灵的观点相似:无论计算能力和运行时间如何 , 计算机都可能无法解决一些问题 。 也就是说 , 哪怕再优秀的神经网络 , 也可能无法对现实世界进行准确的描述 。
不过 , 这并不表明所有的神经网络都是有缺陷的 , 而是它们仅仅在特定情况下才能达到稳定和准确的状态 。
研究团队通过引入一个经典逆问题 , 提出了一个分类理论 , 用来描述哪些神经网络可以通过算法进行计算 , 对「人工智能可以做什么和不可以做什么」这一历史性问题给出了一个新的答案 。
同时 , 他们开发了一个新的模型——「快速迭代重启网络」(FIRENETs) , 能够在应用场景中同时保证神经网络的稳定性和准确性 。 一方面 , FIRENETs所计算的神经网络在对抗扰动方面具有稳定性 , 还能够将不稳定的神经网络变得稳定;另一方面 , 它在保持稳定性的前提下还取得了高性能和低漏报率 。
以下是对该工作的简单介绍:
1
研究背景
深度学习(DL)取得了前所未有的成功 , 现在正全力进入科学计算领域 。 然而 , 尽管通用的逼近特性可以保证稳定的神经网络(NN)的存在 , 但当前的深度学习方法往往存在不稳定性 。 这个问题使得深度学习在现实生活中的落地充满危险 。
比方说 , Facebook(Meta)和纽约大学于2019年的FastMRI挑战赛中曾称 , 在标准图像质量指标方面表现良好的网络容易出现漏报 , 无法重建微小但具有物理相关性的图像异常 。 2020年FastMRI挑战赛将重点放在病理上 , 又指出:「这种虚幻的特征是不可接受的 , 尤其如果它们模拟的是正常结构 , 而这些结构要么不存在 , 要么实际上是异常的 , 那就非常有问题 。 正如对抗扰动研究所证明的 , 神经网络模型可能是不稳定的」 。 显微镜学中也存在类似的例子 。
在不同的应用场景中 , 对误报率和漏报率的容忍度是不同的 。 对于具有高错误分析成本的场景 , 必须避免这种误报和漏报 。 因此 , 在医疗诊断等应用场景中 , 人工智能的「幻觉」可能存在非常严重的危险 。
对于该问题 , 经典的近似定理表明 , 连续函数可以用神经网络很好地任意逼近 。 因此 , 用稳定函数描述的稳定问题往往可以用神经网络稳定地解决 。 这就产生了这样一个基础性问题:
为什么有些场景已被证明存在稳定、准确的神经网络 , 深度学习还会出现不稳定的方法和由AI生成的「幻觉」?
为了回答这个问题 , 研究者们启动了研究 , 希望确定深度学习在逆问题中所能达到的极限 。
此外 , 深度学习中的神经网络还存在稳定性和准确性的权衡问题 。 稳定性差是现代人工智能的致命弱点 , 这方面也有一个悖论:尽管存在稳定的神经网络 , 但训练算法仍能发现不稳定的神经网络 。 这个基础性问题与StevenSmale在1998年就人工智能极限提出的第18个数学问题有关 。
计算稳定的神经网络并不困难 , 例如 , 零网络就是稳定的 , 但它准确度不高 , 因而不是特别有用 。 最大的问题是:如何计算既稳定又准确的神经网络?科学计算本身基于稳定性和准确性 , 然而 , 两者之间往往存在取舍 , 有时必须牺牲准确性以确保稳定性 。