机器学习的出现,是否意味着“古典科学”的过时?( 二 )


Griffiths认为 , 这些反例反映的信息量更大 , 因为它们揭示了现实生活中存在的更多复杂性 。 例如 , 正如前景理论所描述的那样 , 人类不断地根据传入的信息权衡概率 。 但是 , 当大脑要计算的竞争概率太多时 , 他们可能会转向不同的策略 。 例如 , 受经验法则的指导 , 股票经纪人的经验法则 , 可能与青少年比特币交易员的经验法则不同 , 因为它来自不同的经验 。
“我们基本上是在使用机器学习系统 , 来识别那些观察与理论不一致的情况” , Griffiths说 。
数据集越大 , 人工智能学习的不一致就越多 。 最终得到的结果 , 不是传统意义上的关于人们如何做出决定的精确主张的理论 , 而是一组受某些约束的主张 。
一种描绘它的方式可能是“如果...那么...”类型规则的分支树 , 这很难用数学来描述 , 更不用说用语言描述了 。
2可理解和预测性之间的权衡
人类也不是第一次面临这种局面了 。
1980年代 , 语音识别软件先驱FrederickJelinek曾说说:每解雇一名团队中的语言学家 , 语音识别器的性能就能获得提高 。
他的意思是 , 对理论的执着某种程度上阻碍了实践上的进步 。
以预测而蛋白质结构的例子来说明 。 蛋白质的功能很大程度上取决于它的结构 , 因此 , 如果你想设计一种药物来阻断或增强给定蛋白质的作用 , 你需要了解它的结构 。
AlphaFold使用X射线晶体学等技术 , 对实验推导的结构进行了训练 , 目前它对于有一些实验数据的蛋白质的预测 , 比那些没有实验数据的蛋白质的预测更可靠 。
机器学习的出现,是否意味着“古典科学”的过时?】欧洲生物信息学研究所(EMBL-EBI)前主任JanetThornton说:”模型的可靠性是一直在提高的 。 缺少理论并不会阻止药物设计师使用它 , 这只会增进我们对生命和治疗的理解 。 ”
机器学习的出现,是否意味着“古典科学”的过时?
文章图片
图3由AlphaFold程序模拟的蛋白质结构
同时 , 也有一部分人显然对这种科学发展方向不太满意 。
例如 , 批评者指出 , 神经网络可能会产生虚假的相关性 , 尤其是在训练数据集很小的情况下 。
而且所有数据集都是有偏见的 , 毕竟科学家们收集数据的方式不是均匀或中立的 , 而是始终考虑某些假设 , 这些假设对谷歌和亚马逊的人工智能造成了破坏性影响 。
正如科学哲学家SabinaLeonelli解释的那样:“我们使用的数据环境非常扭曲 。 ”
虽然这些问题确实存在 , 但计算神经科学家Dayan并不认为它们是不可克服的 。
他指出 , 人类也有偏见 , 而且与人工智能不同 , 人类是以非常难以审视或纠正的方式 。
AI新科学面临的一个更大的障碍 , 可能是人类需要解释这个世界——用因果关系来讨论 。
2019年 , 西雅图华盛顿大学的神经科学家BingniBrunton和MichaelBeyeler写道:“这种对可解释性的需求 , 可能阻碍了科学家们对大脑产生新的见解 , 这种见解只能从大型数据集中出现” 。
但他们对此也表示同情 。 他们说:“如果要将这些见解转化为药物和设备等有用的东西 , 计算模型必须产生对临床医生、最终用户和行业可解释和信任的洞察力 。 ”
解决如何弥合可解释性差距的——可解释人工智能 , 已成为热门话题 。 但这种差距只会越来越大 , 我们可能会面临权衡取舍:愿意为可解释性放弃多少可预测性?
对AI驱动的科学 , 还有最后一个反对意见是 , 人们对旧理论方法仍有待发现 , 其中可能存在有用的地方(即从离散示例中提取的概括) 。 而且只有人类才能做到这一点 , 因为它需要直觉 。