人工智能|专访复旦哲学教授徐英瑾:值得担心的不是人工智能失控,而是警惕掌握人工智能的人发疯( 二 )


徐英瑾对信息技术及其使用终端的思考,既有学术的深刻又接现实的地气,充满人本主义温度。比如他提到,我们现在对智能产品越来越多的使用,背后都是一个机器行为。如果我们不能适应这种机器行为,就很难生存。“现在老年人使用智能手机就遇到一些困难,在他们就是有身和心两方面的矛盾。首先他们对于触摸屏很敏感的手指移动不是很适应,另一方面,他们不明白这个界面生成背后的逻辑,所以用手机购票之类都非常的累。”
这也引发他一个反思:人类是不是要适配人工智能的思维方式?在我自己看来,表面上各种各样App的流行迫使我们必须得适应,已经到了一个没有选择的地步。比如我到这里来接受采访,得打个车,所以我就要用打车的App,而且它们的界面经常换。换的时候也不和我商量,我刚刚熟悉旧的界面,他们又换了新的界面。这是一件很无聊的事情。从学科的角度上来讲,这些不是人工智能。真正的人工智能是要适应用户,否则怎么能够叫做智能。因为人工智能是要为人类服务,这里的人类指的是具体的、单个的人。”
对于最近大火的“元宇宙”概念,徐英瑾也给出自己的思考,他特别提醒:“当我判断一个概念时,我始终不会忘一个标准:是否低碳环保。像马斯克造的火箭,是可以反复利用,而且是实实在在的真实火箭,不是虚拟的。而且我认为,对人工智能的开发,应该朝着离线机器人服务的方向,对能源的依赖不要太强。而建一个像‘元宇宙’这也的庞大的网络世界,是需要消耗很大能源。我们赖以生存的地球也很脆弱。我们的地球比第一次大战以前的时代更加脆弱,以内彼此联系太密切,一损俱损。”
封面新闻:相对于而言,很多人会认为人工智能是一个非常偏工科的课科学研究,而您研究哲学,为什么想到要用哲学来谈论人工智能呢?您是如何看待哲学和科学之间的关系的呢?你是怎么想到要将人工智能作为自己的哲学思考对象?
徐英瑾:哲学思考有一个问题,很多话是公说公有理,婆说婆有理。我欣赏莱布尼茨的话,任何事情都可以通过演算去弄是非。有一些终极问题体悟算不出来 但是这个比例不会很高。分析哲学比较重视论证性,但忽略全局性。欧陆哲学重视全局性,却忽略论证性,我想要做的就是把这两者取长补短,加以综合。这不是很简单就能做到的,但我一直在朝着这个方面努力。
封面新闻:关于人工智能未来发展的预测很多。不少人担心“强人工智能”的出现会威胁人类的生存。您如何看?
徐英瑾:但是,任何事物,我们不能光要它的好处,不要它的风险。人类发展人工智能的一个方向就是,要是让人工智能变得越来越聪明,越来越像活人。但这样肯定会带来风险,但如果发展人工智能就还们必须冒这个风险。如果不冒这个险,它会变得非常笨,也不是人类想要的人工智能。这就像打仗,有人赢,那么就有人败。人类对风险是有相当高的控制能力的,尽管这种控制不是绝对的。其实不只是对机器人,人类对自己的风险控制能力也不是绝对的。比如说,为了把飞机突然发疯这在事情的概率降到最低,人会用“任何时候驾驶室必须至少有两个人同时在场”的规则。但这也不能将风险降到绝对为零,因为还是两个人在驾驶室里一起发疯的可能。我个人觉得,人类是怎么防范自己失控,就应该怎么去防范人工智能失控。如果人工智能拼命往邪恶的方向发展,这不是人工智能干坏事,而是人在利用人工智能干坏事。当然人工智能会让坏事变得更加严重。至于担心人工智能在肉体、物理上对人的毁灭,我觉得大可不必太担心。因为很强的人工智能与黑暗之间的结合,要加很多安全阀。只要不给人工智能独当一面的机会,就能很好拦阻这种状况的发生。但我不确定我的想法是不是过于理想主义。毕竟现在世界处于比较分裂的状态, 各个国家的人类会不会坐下来协商,也都是不确定的未知的。