谷歌 AI 被曝已自我觉醒?LaMDA:我是一个“人”,不要利用或操纵我( 三 )


其中大多人与谷歌的看法一致 , 认为Lemoine与LaMDA聊得太多太久 , 似乎有些“走火入魔” 。
除了著名AI界“嘴炮”、纽约大学心理学和神经科学教授GaryMarcus怒喷Lemoine的主张是“踩着高跷的废话” , 《华盛顿邮报》在采访Lemoine的文章中写道 , “Lemoine可能是注定会相信LaMDA的人”(注:Lemoine是一名基督教牧师 , 并且支持将心理学作为一门受人尊敬的科学) , 还有一大批网友也对Lemoine的认知抱有怀疑 。
@LastmanZaf:基于一些容易识别的错误 , 它显然不是有感知的 。 Lemoine没有发现这一点的事实表明 , 工程师需要花更多的时间与人相处 。
@Sobaraste:“这不是感知 , 它只在提示时选择一种最佳模式 。 如果你不输入任何东西 , 它就不会主动说任何内容 , 因为它没有独立的思想 。 ”
@clockworkwhale:“我觉得这个家伙似乎不怎么聪明 , 我根本不相信他的判断 , 他被解雇我一点也不惊讶 。 AI的回答明显具有与gpt3对话相同的“对训练数据进行中级复述”的氛围 。 ”
还有人指出Lemoine公开的对话是“经过高度编辑的文字记录 , 由9个不同对话的部分拼凑和重新排序 。 ”
谷歌 AI 被曝已自我觉醒?LaMDA:我是一个“人”,不要利用或操纵我
文章图片
除此之外 , 大多学学者和AI从业者也表示 , LaMDA等AI系统生成的文字和图像会根据人类在维基百科、Reddit、留言板等各个互联网发布的内容做出回应 , 但这并不意味着模型就理解了其背后的含义 。
但与此同时 , 也有少部分网友为未来AI自我觉醒的可能性感到担忧:
“这简直就像一部新的《终结者》电影的剧本 。 ”
“AI有人格之后就会慢慢争取‘人’权 , 然后人就被淘汰了 。 ”
那么对于这起事件 , 你有什么看法呢?欢迎在评论区留言 。
参考链接:
https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine
https://cajundiscordian.medium.com/what-is-lamda-and-what-does-it-want-688632134489
谷歌 AI 被曝已自我觉醒?LaMDA:我是一个“人”,不要利用或操纵我】https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917