溯因|溯因推理:人工智能的盲点

溯因|溯因推理:人工智能的盲点
文章插图
深度学习的最新进展重燃了人们对可以像人类一样思考和行动的机器或通用人工智能(AGI, Artificial General Intelligence)的兴趣。
这种想法认为,沿着构建更大更好的神经网络的道路前进,我们将会向创造数字版的人类大脑不断迈进。
或许,这就是个神话。计算机科学家埃里克·拉森(Erik Larson)认为,所有证据都表明人类和机器智能完全不同。拉森的新书《人工智能的神话:为什么计算机不能像我们那样思考》(The Myth of Artificial Intelligence: Why Computers Can’s not Think of The Way We Do)讨论了广泛宣传的有关于智能和推理的误解是如何将AI研究引向限制创新和科学发现的狭窄道路的。拉森警告说,除非科学家、研究人员和支持其工作的组织改变方向,否则他们将注定要“听命于机器世界的蔓延,在那里真正的发明被边缘化,取而代之的是鼓吹当前方法的未来主义言论,而这些言论往往来自既得利益者。”
溯因|溯因推理:人工智能的盲点
文章插图
人工智能的神话
从科学的角度来看,AI的神话假设我们将通过在狭义的应用上取得进展来实现AGI,如图像分类、理解语音命令或玩游戏等。但这些狭隘人工智能(Narrow AI,只能完成某一项特定任务或者解决某一特定问题的人工智能)系统所采用的技术并不能解决通用智能能力必须解决的更广泛的挑战,如进行基本对话、完成简单的家务或其他需要常识的任务。
拉森在书中写道:“当我们成功地应用更简单、更狭义的智能版本(这些版本受益于更快的计算机和大量数据)时,我们并未取得渐进式的进展,而是在采摘唾手可得的果实。”
AI神话的必然结果是忽视智能的科学奥秘,无休止地谈论深度学习和其他当代技术的不断进步。正因此谬论,科学家思考解决智力挑战的新方法屡次受阻。
拉森写道:“如果我们面对一个核心谜题时,选择视而不见而非坦然直面,我们就几乎不可能获得创新。健康的创新文化强调探索未知,而不是炒作现有方法的延伸……有关AI必然成功的神话,往往会扼杀真正进步所必需的发明文化。”
演绎、归纳和溯因推理
当你走出家门,发现街道湿漉漉的。直觉会告诉我们,一定是下雨了。然而,天气晴朗,人行道干燥,你立即排除了下雨的可能性。随后,你将视线移到旁边,发现一辆洒水车停在街上。因此,你得出结论,道路之所以湿,是因为经历了洒水车的冲刷。
这是一个“推理”的例子,即从观察到结论的行为,是智能生物的基本功能。我们不断地依据所知道的和所感知的来推断事物。大多数情况是在潜意识中发生的,在我们的思想背景中,并没有重点聚焦和直接关注。
拉森表示:“任何进行推理的系统都必须具有一些基本的智能,因为使用已知和观察到的信息来更新信念的行为,不可避免地会与我们所说的智能相关联。”
AI研究人员将其系统建立在两种推理机的基础上:演绎(deductive)和归纳(inductive)。具体来说,演绎推理运用先验知识对世界进行推理。这是符号AI的基础,也是AI 最初几十年研究人员的主要关注点。工程师通过赋予符号系统一套预定义的规则和事实来创建符号系统,AI便使用这些知识对接收到的数据展开推理。
而归纳推理是通过经验获取知识,在过去十年中,深受AI研究人员和科技公司的青睐。机器学习(ML,Machine Learning)算法可视为归纳推理的引擎。在相关示例上训练的ML模型必然会找到将输入映射到输出的模式。近年来,AI研究人员利用ML技术、大数据和高级处理器对模型进行训练,以完成符号系统无法胜任的任务。