深度学习撞墙?LeCun与Marcus到底谁捅了马蜂窝( 四 )


问题的关键不仅在于如何正确地解决当代人工智能领域的问题 , 还在于解决智能是什么以及大脑如何工作 。
对AI , 是押注 , 还是做空?
深度学习撞墙?LeCun与Marcus到底谁捅了马蜂窝
文章图片
为什么「深度学习撞墙」的说法这样具有挑衅性?
如果Marcus是对的 , 那深度学习将永远无法实现与人类相似的AI , 无论它提出了多少新的架构 , 也不管它投入了多少计算能力 。
为神经网络继续添加更多的层只会让人更加困惑 , 因为真正的符号操纵需要一个天生的符号操纵者 。 由于这种符号化操作是几种常识能力的基础 , 所以DL只会对任何东西都「不求甚解」 。
相比之下 , 如果DL的提倡者和经验主义者是正确的 , 那么令人困惑的是插入一个用于符号操纵的模块的想法 。
在这种情况下 , 深度学习系统已经在进行符号推理 , 并将继续改进 , 因为它们通过更多的多模态自监督学习、越来越有用的预测世界模型以及用于模拟和评估结果的工作内存的扩展来更好的满足约束 。
引入符号操作模块不会创造出更像人类的AI , 相反会迫使所有的「推理」操作通过一个不必要的瓶颈 , 这将使我们更加远离「类人智能」 。 这可能会切断深度学习最激动人心的一个方面:它能够提出超过人类的完美解决方案 。
话说回来 , 这些都不能证明那些愚蠢的炒作是正确的:由于当前的系统没有意识 , 所以它们不能理解我们 , 强化学习是不够的 , 你不能仅仅通过扩大规模来构建类人智能 。 但所有这些问题都是主要争论的「擦边问题」:符号操作到底是需要硬编码?还是可学习?
这是在呼吁停止研究混合模型(即具有不可微符号操纵器的模型)吗?当然不是 。 人们应该选择有效的方法 。
但是 , 研究人员自20世纪80年代以来一直在研究混合模型 , 不过它们还没有被证明是一种有效的方式 , 在许多情况下 , 有可能甚至远不如神经网络 。
更通俗地说 , 人们应该怀疑深度学习是否达到了上限 。
参考资料:
https://www.noemamag.com/what-ai-can-tell-us-about-intelligence/