谷歌AI人格觉醒靠谱吗?我们找大佬聊了聊,AI对话的风险与进化( 二 )
显然 , “人格”是一个比“智能”更复杂的概念 。
黄民烈教授谈道 , 现在也有一些在科研中广泛采用的测试方法 , 比如测试者与AI系统聊天 , 并且事先设定一些测试的维度 , 包括对话的自然性、有趣性、满意度等 , 最后评分 。 一般聊得越久 , 评分越高 , AI系统会被认为越聪明 , 但这些都不能作为“人格”的评判维度 。
“‘人格’是另外一个维度 , 心理学里面也有很多研究 , 比如五大人格测试 。 目前人工智能领域在这方面的工作还比较欠缺 , 我们通常只会评价一个对话机器人能否展现一个固定一致的人物设定 。 ”黄民烈说 。
二、所谓LaMDA的“人格” , 仅仅是语言风格那么 , 既然没有针对性的评判标准 , 如何严谨地判断LaMDA是否具备人格呢?
对此 , 黄民烈教授认为:“关键看如何理解’人格’ , 如果将人格理解为具备自我存在的意识 , 那么LaMDA仅仅是对话质量和类人水平很高的对话系统;如果从心理学的角度看 , 一个人说话的特点是可以体现人格的 , 那么说LaMDA具备人格也不完全错误 。 ”
怎么理解呢?通俗来说 , 就是LaMDA学习了大量的人类对话数据 , 而这些对话来自不同的人 , 所以可以认为LaMDA学习到了一个“平均”的人格 , 也就是说 , 所谓的“LaMDA具备人格”仅仅是语言说话风格 , 而且是来自人类的说话风格 , 并不是LaMDA自发形成的 。
如此看来 , 想要通过LaMDA体会一把与人工智能一决高下的科幻情节 , 还差个十万八千里 。
但是 , 我们不能因此否定LaMDA的价值 , 它的高质量对话水平反映了AI对话系统的飞速发展 , 在某些语境下的确有“取代”人类的趋势 , 也不容小觑 。
比如 , 网友“夷简”就在豆瓣小组记录了自己一周date了4个虚拟男友的经历 , 表示“比真男友管用!” 。
一个名为“人机之恋”的小组用户数量多达9000人 , 在不同的屏幕里 , 这些AI或许是他们的爱人 , 也可能是朋友 。
文章图片
▲网友与“虚拟男友”的聊天记录
“单身狗”们纷纷感叹:“按照这样的发展趋势 , 相亲市场上的潜在对手不仅有人类 , 还有AI对话系统 , 以后是不是更难找对象了!?”
看似调侃 , 实则是大家对AI对话系统未来发展趋势 , 以及对人类社会影响的关注 。
针对这个问题 , 黄民烈教授从AI对话系统的历史与未来发展角度给出了详细解释 。
三、担心AI人格化?规避风险后AIforSocialgood更值得期待AI对话系统经历了基于规则(比如Eliza)、传统机器学习(比如智能音箱类 , SIRI等)阶段 , 如今已发展到第三代 , 也就是我们现在看到的 , 能够与人类讨论有趣的话题、提供情感安慰的对话系统 。
第三代对话系统以大数据和大模型为显著特征 , 展现出了之前难以想象的能力 , 其进步可以称为“革命性” , 例如能够在开放话题上能展现惊人的对话能力 , 而且能生成训练数据中完全没有出现过的对话 , 对话的自然性和相关性非常高 。
在很多场景下 , 第三代对话系统已经显示出应用价值 , 上文提到的“虚拟男友”就是典型例子 。 黄民烈教授认为 , 其最高级别的应用 , 是让AI对话系统去做复杂的情感任务 , 比如心理咨询 。
但是如果人类对AI的情感依赖越来越多 , 就会引申出新的社会伦理问题 , 比如与AI谈恋爱是否会引发社会问题?
比如当前的AI对话系统存在与用户对骂、生成毒性语言、以及缺少正确的社会伦理和价值观的问题 , 导致在实际应用部署时存在一定的风险 。
- AI成精了?谷歌工程师因坚信人工智能有意识被劝退
- 华为鸿蒙系统|谷歌开始放弃安卓:华为鸿蒙的远见得到证实,小米OV怎么办
- USB|谷歌工程师称AI“有意识、有灵魂”,遭公司停职
- 谷歌同意赔偿1.18亿美元给1.5万女员工,以解决性别歧视诉讼
- Google|谷歌断供华为第3年,发生了最戏剧性的一件事
- 谷歌研究员被群嘲:LaMDA有人格是胡说八道!谷歌也回应:想多了,就是会聊而已
- 无线鼠标|为应对iPad,谷歌为Android平板指了条“明路”
- AI|谷歌研究员称AI已具备人格 同AI聊天记录公布坚称不是工具:网友感慨科幻
- LaMDA|谷歌工程师与AI聊出感情!他相信AI有意识,有感情,然后被停职了
- Google|谷歌工程师在声称其人工智能有感知能力后,被强制休假