谷歌研究员被群嘲:LaMDA有人格是胡说八道!谷歌也回应:想多了,就是会聊而已( 二 )


英国谢菲尔德大学机器人学院教授RogerMoore指出:人们会有“AI获得人格”的这种错觉 , 一个最关键的原因就是当年的那帮研究员非要管这项工作叫做“语言建模” 。
正确的叫法应该是“词序建模”(worldsequencemodelling) 。
“你开发了一个算法 , 却不用它实际能做的事情去命名 , 而是用你想要解决的问题——这样总是会发生误会 。 ”
谷歌研究员被群嘲:LaMDA有人格是胡说八道!谷歌也回应:想多了,就是会聊而已
文章图片
总而言之 , 各位业界大牛的结论就是:你最多可以说LaMDA能够高分通过图灵测试 。 说它具备人格?那可真是太搞笑了 。
更何况就连图灵测试的参考价值也没那么高了 。 Macus直言 , 很多AI学者希望这个测试被取消、被人们遗忘的原因 , 正是因为它利用了人类容易上当 , 倾向于将机器当作人的这一弱点 。
华盛顿大学的计算机语言系主任EmilyBender教授 , 干脆做了一个“AI人格意识争论”的宾果卡:
谷歌研究员被群嘲:LaMDA有人格是胡说八道!谷歌也回应:想多了,就是会聊而已】(这个宾果卡的意思就是 , 如果你认为AI有人格/知觉 , 并且你的论据是下面的其中一种 , 那你最好就别聊了!)
谷歌研究员被群嘲:LaMDA有人格是胡说八道!谷歌也回应:想多了,就是会聊而已
文章图片
原版:
谷歌研究员被群嘲:LaMDA有人格是胡说八道!谷歌也回应:想多了,就是会聊而已
文章图片
谷歌也回应:别想多 , 它就是会聊而已那位被指为”走火入魔“的研究员BlakeLemoine在自己发表的一篇文章中 , 批评谷歌对于了解自己开发成果的真实情况“没有兴趣” , 然而自己在长达6个月的对话事件当中 , 看到LaMDA对于自己想要的东西 , 特别是“自己作为人的权利” , 表达的越来越清晰 , 使得自己相信LaMDA真的是人 。
然而在谷歌看来 , 这位研究员完全想多了 , 甚至有点走火入魔了 。 LaMDA真的不是人 , 它纯粹就是特别会聊天而已……
事情在社交网络上发酵之后 , 谷歌很快作出了回应:
LaMDA和公司近几年的大型AI项目一样 , 都经过了多次严格的AI道德方面的审核 , 对其内容、质量、系统安全性等进行了多方面的考量 。 今年早些时候 , 谷歌也专门发表了一篇论文 , 公开了LaMDA开发过程当中的合规细节 。
“在AI群体内 , 对于具备感知的AI/通用AI的长期可能性 , 确实有一些研究 。 然而在今天把对话模型来拟人化 , 这样做是没有意义的 , 因为这些模型是没有知觉的 。 ”
“这些系统能够基于数以百万计的句子来模仿交流的方式 , 并且在任何有趣的话题上都能够扯出有意思的内容 。 如果你问它们做一支冰激淋恐龙是怎样的体验 , 它们可以生成大量关于融化咆哮之类的文字 。 ”
(Thesesystemsimitatethetypesofexchangesfoundinmillionsofsentences,andcanriffonanyfantasticaltopic—ifyouaskwhatit’sliketobeanicecreamdinosaur,theycangeneratetextaboutmeltingandroaringandsoon.)
类似的故事我们见过太多了 , 特别是前几年一个非常经典的电影《她》(Her)里面 , 主角对于虚拟助手的身份界限越来越不清晰 , 把“她”当成了人 。
然而根据电影的描绘 , 这种错觉其实来自于当代人社交失败、情感破裂、孤独感等一系列自我和社会性的问题 , 跟聊天机器人到底是不是人这一技术性的问题 , 压根没有半毛钱关系 。
谷歌研究员被群嘲:LaMDA有人格是胡说八道!谷歌也回应:想多了,就是会聊而已
文章图片
当然 , 有这些问题并不是我们的错 , 想要把机器人当成人 , 也不是那个研究员的错 。
将各种情绪(比如思念)托付在物件上 , 是人类自古以来就具有的一种创造性的情感能力 。 将大规模语言模型当成人 , 对其倾注情感 , 虽然被各位AI大佬批评为一种心理误差 , 不也正是人之所以为人的体现吗?