“谷歌AI形成人格”,机器人意识要觉醒了吗?( 二 )


特斯拉的AI主管看完BlakeLemoine两篇文章后表示 , “我可以自信地说 , 事情将变得更加诡异 。 因为模型似乎遵循平滑缩放规律 , 并且数据+模型的大小仍然可以大量增长 。 ”
华盛顿大学的语言学家EmilyM.Bender则表示 , 码农们不知道何为智能、人类的语言学习机制究竟为何 , 就开始瞎用“学习”、“神经网络”这些误导性过强的名词 , 造成了与人脑间的虚假比喻 。
EmilyM.Bender称 , 人类学说话是跟着抚养者一步步学起 , 而AI学会的只是数据灌出来的完形填空和语料连连看 。 “人类现在有了无意识就能生成词句的机器 , 但人类一直学不会停止幻想机器后面有个活着的灵魂 。 ”
而研究自然语言处理模型的加州大学伯克利分校教授EmaadKhwaja说得更简短却直接:“谁真正熟悉这些模型的系统 , 谁就不会说这些模型已经觉醒的蠢话 。 ”
虽然事件整体仍然暴露出目前对话式AI可解释性不强的通病 , 但在技术应用方面 , 尤其在情感计算方面 , LaMDA还是展现出较强的实力 , 有望推动对话式AI的实际应用 , 大模型同样也表现出在技术应用领域的巨大潜力 。
人类对AI的恐惧
自从上世纪50年代人工智能(AI)开始诞生以来 , 通过半个多世纪的发展 , AI的功能越来越强大 , 不但有的能够为人类提供养老、看护、交流等服务 , 而且有的甚至具有类似人类的独立思考和深度学习的能力 , 使其成为区别于其他科技的一支特殊力量 。
长久以来 , 人们期待机器可以拥有人类智能 , 进一步解放生产力 。 同时又恐惧人类所创造的机器拥有人类智能后将对人类造成威胁 。 从此次事件的大范围传播不难看出 , 公众对人工智能的期待与恐惧推动了这一进程 。
1997年深蓝计算机打败了国际象棋冠军 , 2016年人工智能阿尔法狗又将诸多围棋高手一一“斩落” , 这些事件的发生 , 在人类惊呼人工智能处理复杂问题的能力越来越强大的同时 , 又使得大家对人工智能是否会衍生出威胁人类的“思维”担心不已 。
“谷歌AI形成人格”,机器人意识要觉醒了吗?
文章图片
除此之外 , 机器是否可以被当作具有“人格”的个体 , 也是长期以来备受关注的议题 。 2017年 , 沙特做出了一个让人“惊掉下巴”的事 , 那就是赋予机器人索菲亚以公民的身体 , 再次推动人们深层次探讨关于人工智能的人格权问题 。
一方面 , 人类渴望机器人拥有意识后可以更好地服务和陪伴人类 , 但另一方面 , 又害怕机器人拥有意识后会摧毁人类 。 伦理方面的问题和技术的发展总是相伴而生 。
人工智能的最大优势在于 , 它们拥有强大的后天学习能力 , 可以在事先毫无基础的情况下 , 经过反复地学习和训练 , 来实现对以往自身的智力超越 。 深蓝、阿尔法狗“打败”人类的事实 , 充分表明了人工智能只要经过无止境的自主学习和训练 , 实现对人类相关文化、智慧的完全超越 , 而这种自我超越的能力也远远超过一个自然人 。
但从目前科技发展的阶段和水平看 , 即使是“智力再超群”的AI , 它的一切目的和行为 , 包括学习、训练工作的实施 , 都是人类所赋予的 , 还脱离不开人类的控制实施独立的行为 , 终归还是人类的工具和手段 , 其最终的目的还是为人类服务 , 从这一方面来说 , 与很多法律研究者提出的“AI不具备人格权”这种论断是一致的 。
而关于AI发展的前景 , 世界上主要有两种观点 , 一种是我们人类应该以开放的态度 , 来迎接人工智能的发展 , 人工智能未来会突破人类的很多限制 , 从而解决科技发展过程中人类难以直接解决的困境 。 另一种观点则是人工智能威胁论 , 认为人工智能发展会带来一系列的社会问题 , 可以会从根本上颠覆人类的生存、发展秩序 。