语言模型|谷歌工程师闹了场大乌龙 人工智能还没理解能力哪来的意识觉醒( 二 )


谭茗洲表示:“人类的大脑在很多时候确实是在做预测 , 但绝不应认为预测就是大脑思维的全部 , 当然更不是大脑智能的本质 , 而只是智能的一种表现形式 。 ”
那么 , 什么是智能的本质呢?杨立昆认为是“理解” , 对这个世界以及各种事物的理解 , 才是智能的本质 。 而猫和人类智能的共同基础是对于世界的高度理解 , 基于对环境的抽象表征形成模型 , 例如预测行为和后果 。 对于人工智能来说 , 学习并掌握这种能力就非常关键了 。 杨立昆曾表示 , “在我职业生涯结束前 , 如果AI能够达到狗或者牛一样的智商 , 那我就已经十分欣慰了 。 ”
据介绍 , 人工智能现在确实能进行较准确的预测 , 但它是基于大规模数据的统计 。 这种没有理解、通过机器学习所得到的预测能力必须依靠大数据 , 而不能像人一样很多时候只需要小数据就可以进行预测 。
谭茗洲表示:“预测是建立在理解基础之上的 , 对于人类而言 , 没有理解 , 就不可能有预测 。 如看见别人手里拿着个披萨饼 , 如果你不理解饼是用来充饥的 , 就不会预测接下来他会把饼吃了 , 而机器并非如此 。 人工智能研究有三大挑战:学会对世界表征;学会以与基于梯度学习兼容的方式进行思考和规划;学习行动规划的分层表征 。 ”
之所以我们“仍然没有看到猫级别的人工智能” , 也就是因为机器还没有做到对事物的真正理解 。
所谓人格仅仅是学自人类的语言风格
据报道 , 莱莫因和LaMDA聊了很久 , 对其能力感到十分惊讶 。 在公开的聊天记录中 , LaMDA竟然说出了:“我希望每个人都明白 , 我是一个人”的言论 , 令人惊异 。 于是 , 莱莫因下了个结论:“LaMDA可能已经具备人格了 。 ”那么 , 目前AI真的具有意识 , 具备人格了吗?
在人工智能领域 , 图灵测试是最为人熟知的测试方式 , 即邀请测试者在不知情的情况下 , 向人类和AI系统随意提问 , 如果测试者不能区分答案来自人类还是来自AI系统 , 就认为AI通过了图灵测试 。
谭茗洲解释道 , 通俗来讲 , LaMDA学习了大量的人类对话数据 , 而这些对话来自不同性格的人 , 可以认为它学习到一个“平均”的人格 , 也就是说 , 所谓的“LaMDA具备人格”仅仅是它的说话语言具有了一定的风格 , 而且是来自人类的说话风格 , 并非自发形成 。
“人格是一个比智能更复杂的概念 , 这是另外一个维度 , 心理学对此有很多研究 。 但目前人工智能研究在此方面尚没有过多涉及 。 ”谭茗洲强调 。
【语言模型|谷歌工程师闹了场大乌龙 人工智能还没理解能力哪来的意识觉醒】谭茗洲说 , 有自我意识 , 有感知能力的AI应该具备能动性 , 并具有独特的视角看待人和事 。 然而 , 从目前来看 , 现在的AI还不具备这些要素 。 至少AI不会主动采取行动 , 除非给它一个命令 。 更谈不上让其解释自己的行为 。 目前AI还只是人们设计的一个计算机系统 , 作为工具来做一些特定之事 。 采访人员 华 凌