神经网络为何越大越好?这篇NeurIPS论文证明:鲁棒性是泛化的基础( 二 )


研究人员正在研究神经网络的鲁棒性(robustness) , 即网络处理小变化的能力 。 例如 , 一个不鲁棒的网络可能已经学会了识别长颈鹿 , 但它会把一个几乎没有修改的版本误标为沙鼠 。
神经网络为何越大越好?这篇NeurIPS论文证明:鲁棒性是泛化的基础
文章图片
2019年 , Bubeck和同事们正在寻求证明关于这个问题的定理 , 当时他们就意识到这个问题与网络的规模有关 。
在他们的新证明中 , 研究人员表明 , 过度参数化对于网络的鲁棒性是必要的 。 他们提出平滑性(smoothness) , 来指出需要多少个参数才能用一条具有等同于鲁棒性的数学特性的曲线来拟合数据点 。
要想理解这一点 , 可以再次想象平面上的一条曲线 , 其中x坐标代表一个像素的颜色 , y坐标代表一个图像标签 。
由于曲线是平滑的 , 如果你稍微修改一下像素的颜色 , 沿着曲线移动一小段距离 , 相应的预测值只会有少量的变化 。 另一方面 , 对于一条锯齿状的曲线 , X坐标(颜色)的微小变化会导致Y坐标(图像标签)的巨大变化 , 长颈鹿可以变成沙鼠 。
Bubeck和Sellke在论文中证明 , 平滑拟合高维数据点不仅需要n个参数 , 而且需要n×d个参数 , 其中d是输入的维度(例如 , 784个像素的图像输入维度为784) 。
换句话说 , 如果你想让一个网络稳健地记住它的训练数据 , 过度参数化不仅是有帮助的 , 而且是必须的 。 该证明依赖于一个关于高维几何的事实 , 即随机分布在球体表面的点几乎都是彼此相距一个直径的距离 , 点与点之间的巨大间隔意味着用一条光滑的曲线来拟合它们需要许多额外的参数 。
神经网络为何越大越好?这篇NeurIPS论文证明:鲁棒性是泛化的基础
文章图片
耶鲁大学的AminKarbasi称赞论文中的证明是非常简洁的 , 没有大量的数学公式 , 而且它说的是非常通用的内容 。
这一证明结果也为理解为什么扩大神经网络的简单策略如此有效提供了一个新的途径 。
其他研究揭示了过量参数化有帮助的其他原因 。 例如 , 它可以提高训练过程的效率 , 也可以提高网络的泛化能力 。
虽然我们现在知道过量参数化对鲁棒性是必要的 , 但还不清楚鲁棒性对其他事情有多大必要 。 但通过将其与过度参数化联系起来 , 新的证明暗示鲁棒性可能比人们想象的更重要 , 这也可能为其他解释大模型的益处研究做铺垫 。
鲁棒性确实是泛化的一个先决条件 , 如果你建立了一个系统 , 只是轻微地扰动它 , 然后它就失控了 , 那是什么样的系统?显然是不合理的 。
所以 , Bubeck认为这是一个非常基础和基本的要求 。
参考资料:
神经网络为何越大越好?这篇NeurIPS论文证明:鲁棒性是泛化的基础】https://www.quantamagazine.org/computer-scientists-prove-why-bigger-neural-networks-do-better-20220210/