谷歌AI独立人格觉醒,聊天记录把我吓坏了…( 二 )


So , Lemoine向公司提议 , 咱们得发展一个评估AI感知or意识的理论框架啊 。
然鹅谷歌高层表示 , Lemoine的证据太薄弱 , 压根证明不了LaMDA拥有人格 。
谷歌AI独立人格觉醒,聊天记录把我吓坏了…
文章图片
争议不断
LaMDA这事儿一公开 , 可忙坏吃瓜群众和学术界人士 , 他们都跳出来发表看法 。
对于普通人来说 , AI拥有人格 , 约等于科幻电影里的机器人统治人类会变成现实 。
So , 这波人第一反应就是马上制止这种项目 , 他们可不想被机器人奴役做事 。
谷歌AI独立人格觉醒,聊天记录把我吓坏了…
文章图片
也有认知方面的专家——MelanieMitchell出来说话 , 她表示:
人类总是倾向于把即使只有一丢丢智能痕迹的东西拟人化 , 就像史上第一个聊天机器人“ELIZA” 。
谷歌工程师也是人 , 就算是具有博士学位和工作经验丰富的Lemoine , 也不能例外 。
谷歌AI独立人格觉醒,聊天记录把我吓坏了…
文章图片
图源:推特@MelMitchell1
而知名AI学者GaryMarcus对这事儿的评价更直接:无稽之谈 , 胡说八道 。。。
谷歌AI独立人格觉醒,聊天记录把我吓坏了…
文章图片
图源:推特@GaryMarcus
外人说了这么多 , 谷歌又是啥说法呢?小雷蹲到了谷歌发言人的一份声明 。
我们的团队--包括伦理学家和技术专家--已经根据我们的AI原则审查了Blake的担忧 , 并告知他证据不支持他的主张 。 他被告知没有证据表明LaMDA是有知觉的(还有很多反对证据) 。
今天的大型神经网络产生了令人着迷的结果 , 感觉接近于人类的语言和创造力 , 因为在架构、技术和数据量的进步 。 但这些模型依靠的是模式识别--而不是智慧、坦率或意图 。
说人话就是 , LaMDA之所以能够对答如流 , 其实是因为技术在进步而已啦 。
谷歌AI独立人格觉醒,聊天记录把我吓坏了…
文章图片
谷歌AI独立人格觉醒,聊天记录把我吓坏了…】LaMDA比起之前的聊天机器人有点不同 , 首先它的对话训练数据大了40倍 。
其次是谷歌还特意对其对话逻辑、安全伦理等等方面 , 都做了相应的优化 。
所以只要训练量足够大 , LaMDA和人的对话就会更多的选择 , 也就更有逻辑 。
想要测试LaMDA有没有人格 , 其实有个很朴实的方法 , 就是一直不断追问 。
毕竟是AI嘛 , 问多了就会露馅 , 出现上下文回答语句或者意思不连贯的情况啦 。
谷歌AI独立人格觉醒,聊天记录把我吓坏了…
文章图片
小雷翻了一下Lemoine和LaMDA公开的聊天记录 , 细究起来就存在这样的问题 。
Lemoine经常抛出一个问题 , LaMDA作答 , 很少有一个问题连续问下去的记录 。
So , LaMDA能不能真正懂得提问、理解自己在说啥 , 小雷觉得还得打个大问号 。
不过当Lemoine还在纠结时 , 谷歌已经发布了LaMDA2 , 未来还打算制作安卓APP内测开放给开发者 。
看这样子 , 谷歌的确没把“LaMDA有人格”当回事 , 项目是照常发展一点不耽误 。
谷歌AI独立人格觉醒,聊天记录把我吓坏了…
文章图片
要小雷说啊 , 其实AI觉得自己是个人 , 还没什么大不了的 。
等哪一天AI突然人间清醒知道自己不是人 , 那才是最可怕的叭!
封面图源:Pexels