语言模型|谷歌工程师闹了场大乌龙 人工智能还没理解能力哪来的意识觉醒

人工智能现在确实能进行较准确的预测 , 但它是基于大规模数据的统计 。 这种没有理解、通过机器学习所得到的预测能力就必须依靠大数据 , 而不能像人一样很多时候只需小数据就可以进行预测 。
不久前 , 谷歌公司(以下简称谷歌)AI工程师莱莫因认为对话应用语言模型LaMDA“活了”“其意识迎来觉醒” , 并对此出具了长达21页的证据 。 他认为 , LaMDA拥有七八岁孩童的智力 , 并相信LaMDA不仅认为自己是一个人类 , 且正在争取自己作为一个人的权利 。 莱莫因的观点和证据引来业内的广泛关注 。 近日该事件迎来最终结局 , 谷歌发表声明 , 称莱莫因违反了“就业和数据安全政策” , 将其解雇 。 谷歌表示 , 经过广泛地审查 , 他们发现莱莫因关于LaMDA是有生命的说法是完全没有根据的 。
尽管“AI是否拥有了自主意识”一直都是AI界争议不休的话题 , 但此次因为谷歌工程师和LaMDA的戏剧性故事 , 再次引发了业内对此话题的激烈讨论 。
机器越来越会聊天了
“如果要来旅游记得穿暖和点 , 因为我这里特别冷 。 ”这是LaMDA在“扮演”冥王星时 , 同科研团队聊天时俏皮地回答 , 至于被问到“有没有人访问过冥王星” , 它也能以准确的事实回答 。
如今 , AI越来越会聊天 。 能让一个长期从事人工智能研究的专业人士认为其已具有意识 , AI模型究竟发展到了什么程度?
有科学家提出 , 人脑仅利用视觉输入的一部分信息便可完成对未来行为的规划 。 只不过视觉输入信息应当在有意识的状态下完成 。 它们都涉及“反事实信息的产生” , 即在没有直接感官信息输入的情况下产生对应的感觉 。 之所以称其为“反事实” , 是因为它涉及对过去的记忆、或对未来行为的预测 , 而不是正在发生的实际事件 。
“目前的人工智能已经有了复杂的训练模型 , 但还要依赖人类提供的数据才能学习 。 若有了产生反事实信息的能力 , 人工智能便可自己生成数据 , 自己想象未来可能遇到的情况 , 从而更灵活地适应之前未遇见过的新情境 。 此外 , 这还能使人工智能拥有好奇心 。 如果人工智能不确定未来会发生什么 , 就会亲自去试一试 。 ”远望智库人工智能事业部部长、图灵机器人首席战略官谭茗洲表示 。
在人们日常的聊天中 , 如果不想把天“聊死” , 对话双方的聊天内容往往会比较跳跃、跨越幅度较大 , 具有一定的想象空间 。 但现在大多数AI系统只能一板一眼说话 , 稍微上下句有点变化 , 就会文不对题 , 甚至贻笑大方 。
谭茗洲指出:“LaMDA处理的是语言模型中最复杂的部分——开放域对话 。 而LaMDA基于Transformer模型 , 该模型可让机器读懂上下文 。 比如在一段话中 , 以往的AI只知道文中代词如his都翻译为‘他的’ , 却不知道这里面的his指的同一个人 。 Transformer模型则可让AI从整体层面理解这段话 , 知道这里的his是同一个人 。 ”
据科研人员评测 , 这种特性让基于Transformer模型的语言模型可以承担开放域对话 , 不管话题发散多远 , AI都能联系前文 , 聊起天来不恍神 。 但LaMDA并不满足于此 , 它还能让天聊得有趣、聊得真实、聊得让人以为AI产生了人格 。 此外 , 与人类对话时 , LaMDA还引入外部信息检索系统 , 通过对真实世界的检索理解回应对话 , 让其回答更机智灵敏、接地气 。
距离对事物的真正理解还很远
2018年 , 图灵奖得主计算机科学家杨立昆(Yann LeCun)曾说 , “人工智能缺乏对世界的基本认识 , 甚至还不如家猫的认知水平” 。 时至今日 , 他依然认为人工智能还远不及猫的认知水平 。 尽管猫的大脑只有8亿个神经元 , 但却远远领先于任何巨型人工神经网络 , 这是为何呢?