新闻记者|“利用人工智能的优点,但不要依赖它”

封面新闻:相对而言,很多人会认为人工智能是一个非常偏工科的科学研究,而你研究哲学,为什么想到用哲学来谈论人工智能呢?你如何看待哲学和科学之间的关系?
徐英瑾:哲学思考有一个问题,很多话是公说公有理,婆说婆有理。我欣赏莱布尼茨的话,任何事情都可以通过演算去弄清是非。有一些终极问题算不出来,但是这个比例不会很高。分析哲学比较重视论证性,但忽略全局性。欧陆哲学重视全局性,却忽略论证性。我想要做的就是把这两者取长补短,加以综合。这不是很简单就能做到的,但我一直在朝着这个方面努力。
封面新闻:关于人工智能未来发展的预测很多。不少人担心“强人工智能”的出现会威胁人类的生存。你如何看?
徐英瑾:任何事物,我们不能光要它的好处,不要它的风险。人类发展人工智能的一个方向就是要让人工智能变得越来越聪明,越来越像人。这样肯定会带来风险,但如果发展人工智能就必须冒这个风险。如果不冒这个险,它会变得非常笨,也不是人类想要的人工智能。这就像打仗,有人赢,那么就有人败。人类对风险是有相当高的控制能力的,尽管这种控制不是绝对的。其实不只是对机器人,人类对自己的风险控制能力也不是绝对的。比如说,为了把飞机飞行员突然发疯这件事情的概率降到最低,人会用“任何时候驾驶室必须至少有两个人同时在场”的规则。但这也不能将风险降到绝对为零,因为还是有两个人在驾驶室里一起发疯的可能。
我个人觉得,人类是怎么防范自己失控,就应该怎么去防范人工智能失控。如果人工智能拼命往邪恶的方向发展,这不是人工智能干坏事,而是人在利用人工智能干坏事。当然人工智能会让坏事变得更加严重。至于担心人工智能在肉体、物理上对人的毁灭,我觉得大可不必太担心。因为很强的人工智能与黑暗之间的结合,要加很多安全阀。只要不给人工智能独当一面的机会,就能很好阻拦这种状况的发生。但我不确定这种想法是不是过于理想主义。毕竟现在世界各个国家的人类会不会坐下来协商,是不确定和未知的。
封面新闻:你觉得有必要制定一个什么规则来约束一下人工智能技术的发展,防止从事人工智能的从业者是十足的科技狂,创造出一个疯狂的机器人,没有底线,做出对人类杀伤性极强的事情吗?
徐英瑾:其实越是定规范,人类越是会有逆反心理。相比基因编辑,人工智能较为不用担心。对于进攻的恶势力,我不认为防御方会失手。因为防御方也可以获得技术,而且官方会支持对计算机技术的利用。真正要担心的不是失控的人工智能,而是要去警惕掌握人工智能的人发疯。防止人性的恶,才是关键。最好的状态是这样的:利用人工智能的优点,明了人工智能的局限,不要依赖它。利用网络的便利性,又要与它的缺点作斗争。比如大数据时代对人的信息全面采集造成对隐私权的侵犯。我个人有一个思考,即可以发展小数据技术。当这个技术帮我们进行信息处理时,不会把个人信息上传到云,而是当下处理。
封面新闻采访人员 张杰 实习生 李心月
【 新闻记者|“利用人工智能的优点,但不要依赖它”】更多资讯或合作欢迎关注中国经济网官方微信(名称:中国经济网,id:ourcecn)