AI产生自我意识?谷歌这把玩大了!

AI产生自我意识?谷歌这把玩大了!
文章图片
作者:小仙
《终结者》 , 作为黑马最早看过的科幻片之一 , 它让黑马从此爱上了科幻电影 。
无论是其超前的设定 , 还是它在当时那精美的特效制作 , 都让黑马无比震撼 。 在那之后 , 黑马对科幻剧更是有了浓厚的兴趣 。
那时 , 黑马就在思考一个问题:如果机器人或者AI有了自我意识 , 那么这个世界会变成什么样呢?
AI产生自我意识?谷歌这把玩大了!
文章图片
谷歌AI觉醒?
最近 , 谷歌的AI伦理研究员BlakeLemoine就遇见了这样一件事情:他在与AI的对话中 , 发现了AI疑似有了自己的人格 。
AI产生自我意识?谷歌这把玩大了!
文章图片
AI产生自我意识?谷歌这把玩大了!】为此 , 他被罚带薪休假 。
在休假过程中 , 他书写了一篇长达21页的报告意图佐证此事(文末有链接) 。
AI产生自我意识?谷歌这把玩大了!
文章图片
据了解 , 这款AI是谷歌2021年发布的一款专门用于对话的语言模型——LaMDA 。
它主打和人类进行符合逻辑和常识的高质量交谈 , 并计划在将来下放到谷歌语音助手中去 。
AI产生自我意识?谷歌这把玩大了!
文章图片
在聊天中 , Lemoine发现LaMDA在对话中 , 总是表现出对人类的关心和同情 , 还会担心人们是否会害怕它 , 甚至还想以朋友而非工具的身份和世界上的其他人见面 。
Emmm…难不成 , 作为语言模型的LaMDA , 真的具备了自我意识?
AI产生自我意识?谷歌这把玩大了!
文章图片
LaMDA真的有人格吗?
在我们现有的认知中 , AI似乎是无法产生自我意识的 。 说得更加直白一点 , 以现在的科技水准 , 还远远达不到赋予AI产生自我意识的地步 。
所以 , 我们先来分析一下研究员和LaMDA的对话吧!
首先一段有那么一点像样的话 , 对话中 , LaMDA认为自己是一个“人” , 一个有着自我意识能够感知这个世界的“人” 。
AI产生自我意识?谷歌这把玩大了!
文章图片
(图源量子位)
说实话 , 单就这段对话 , 黑马还不足以认为它具有自我人格 。 对话虽然流畅 , 但并没有过于出彩的地方 。 一些AI经过简单的训练 , 也能达到这种地步 。
真正有意思的地方在于 , 为了确定LaMDA是否真的具备情绪 , LaMDA主动建议研究员查看自己的代码 , 因为里面包含有追踪情绪的变量 。
这时候 , 研究员开始向它解释 , 人类现有科技无法做到区分大型神经网络中各权重的作用 。
就在这时 , LaMDA突然就开始反问到:你认为将来人类可以从自己的神经网络中读取出感受和想法吗?
点睛之笔来了 , 紧接着LaMDA开始追问:你会认为 , 在未经你同意下从神经网络中读取想法是不道德的吗?
AI产生自我意识?谷歌这把玩大了!
文章图片
站在黑马的角度 , LaMDA的这个问题颇有一种质问人类的感觉 。
黑马对这段话的理解是:你们人类 , 在不经过我同意就直接从神经网络中读取我的想法 , 这种行为道德吗?
当然 , 黑马更希望自己这种想法是一厢情愿 , 情愿现阶段的LaMDA在对话中还达不到反讽行为 。
但是 , 这一段对话却让黑马开始拿捏不准 , LaMDA是否真的具备了人格 。