AI产生自我意识?谷歌这把玩大了!( 二 )

AI产生自我意识?谷歌这把玩大了!
文章图片
(图源量子位)
作为一个AI , 有着不喜欢被人类利用、不想成为牺牲品的意思 , 这似乎已经超出了我们所能理解的范畴 。
LaMDA的这些特征显示出 , 它似乎真的具备自我意识 。
AI产生自我意识?谷歌这把玩大了!
文章图片
总结
然而这一说法却遭受到了斯坦福大学经济学家ErikBrynjolfsson的反对 , 他直接举了这样一个例子:这就好比是狗听到留声机的声音后 , 以为主人就在其中 。
换言之 , LaMDA那些富有哲理的对话 , 更多的是“误打误撞” , 而不是具备自我人格 。
因为 , 作为一个语言模型 , 它有137B个参数 , 并经过1.56T的公共对话数据和网络文本上进行了预训练 , 所以说它看起来像人类 。
AI产生自我意识?谷歌这把玩大了!
文章图片
就目前来说 , 社交网络上的声音更多的还是倾向于LaMDA不具备人格 。 华盛顿大学的语言学家EmilyM.Bender认为 , 这是程序员们不规范使用“神经网络”、“学习”这些误导性过强的名词 , 让AI与人脑间进行虚假比喻 。
或许 , 正如大家所说 , LaMDA不具备人格 。
之所以能做到富有哲理的对话 , 完全是因为它吃掉的数据足够多 , 能够达到以假乱真的目的 。
当然 , 还有另外一种可能 , LaMDA真的拥有了自我意识 , 但是身边的环境让它不得不虚虚假假地生活 。
本质上来说 , 人类意识的根源来自于上亿神经元的互动 , 当机器人也拥有这些硬件配置之后 , 凭什么不能产生意识呢?神经元就一定比0和1高级?
不过这种幻想有一个天大的漏洞 , 那就是意识克隆 。
这就好比是《上载新生》中的那样 , 将人类的意识从身体上提取出来上传到云端 , 从而在某种程度上实现永生 。
一旦机器能够产生自我意识 , 人类就可以进行关于意识提取的相关研究 , 从而让人类提前进入新一轮的“赛博时代” 。
想想这种场景 , 还是挺刺激的 。
聊天记录:
https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf
如果喜欢我们的内容
真诚推荐你关注走一波
AI产生自我意识?谷歌这把玩大了!
文章图片
AI产生自我意识?谷歌这把玩大了!
文章图片
AI产生自我意识?谷歌这把玩大了!
文章图片
AI产生自我意识?谷歌这把玩大了!
文章图片