风险|“利用人工智能的优点,但不要依赖它”

封面新闻:相对而言 , 很多人会认为人工智能是一个非常偏工科的科学研究 , 而你研究哲学 , 为什么想到用哲学来谈论人工智能呢?你如何看待哲学和科学之间的关系?
徐英瑾:哲学思考有一个问题 , 很多话是公说公有理 , 婆说婆有理 。 我欣赏莱布尼茨的话 , 任何事情都可以通过演算去弄清是非 。 有一些终极问题算不出来 , 但是这个比例不会很高 。 分析哲学比较重视论证性 , 但忽略全局性 。 欧陆哲学重视全局性 , 却忽略论证性 。 我想要做的就是把这两者取长补短 , 加以综合 。 这不是很简单就能做到的 , 但我一直在朝着这个方面努力 。
封面新闻:关于人工智能未来发展的预测很多 。 不少人担心“强人工智能”的出现会威胁人类的生存 。 你如何看?
徐英瑾:任何事物 , 我们不能光要它的好处 , 不要它的风险 。 人类发展人工智能的一个方向就是要让人工智能变得越来越聪明 , 越来越像人 。 这样肯定会带来风险 , 但如果发展人工智能就必须冒这个风险 。 如果不冒这个险 , 它会变得非常笨 , 也不是人类想要的人工智能 。 这就像打仗 , 有人赢 , 那么就有人败 。 人类对风险是有相当高的控制能力的 , 尽管这种控制不是绝对的 。 其实不只是对机器人 , 人类对自己的风险控制能力也不是绝对的 。 比如说 , 为了把飞机飞行员突然发疯这件事情的概率降到最低 , 人会用“任何时候驾驶室必须至少有两个人同时在场”的规则 。 但这也不能将风险降到绝对为零 , 因为还是有两个人在驾驶室里一起发疯的可能 。
【风险|“利用人工智能的优点,但不要依赖它”】我个人觉得 , 人类是怎么防范自己失控 , 就应该怎么去防范人工智能失控 。 如果人工智能拼命往邪恶的方向发展 , 这不是人工智能干坏事 , 而是人在利用人工智能干坏事 。 当然人工智能会让坏事变得更加严重 。 至于担心人工智能在肉体、物理上对人的毁灭 , 我觉得大可不必太担心 。 因为很强的人工智能与黑暗之间的结合 , 要加很多安全阀 。 只要不给人工智能独当一面的机会 , 就能很好阻拦这种状况的发生 。 但我不确定这种想法是不是过于理想主义 。 毕竟现在世界各个国家的人类会不会坐下来协商 , 是不确定和未知的 。
封面新闻:你觉得有必要制定一个什么规则来约束一下人工智能技术的发展 , 防止从事人工智能的从业者是十足的科技狂 , 创造出一个疯狂的机器人 , 没有底线 , 做出对人类杀伤性极强的事情吗?
徐英瑾:其实越是定规范 , 人类越是会有逆反心理 。 相比基因编辑 , 人工智能较为不用担心 。 对于进攻的恶势力 , 我不认为防御方会失手 。 因为防御方也可以获得技术 , 而且官方会支持对计算机技术的利用 。 真正要担心的不是失控的人工智能 , 而是要去警惕掌握人工智能的人发疯 。 防止人性的恶 , 才是关键 。 最好的状态是这样的:利用人工智能的优点 , 明了人工智能的局限 , 不要依赖它 。 利用网络的便利性 , 又要与它的缺点作斗争 。 比如大数据时代对人的信息全面采集造成对隐私权的侵犯 。 我个人有一个思考 , 即可以发展小数据技术 。 当这个技术帮我们进行信息处理时 , 不会把个人信息上传到云 , 而是当下处理 。
封面新闻采访人员 张杰 实习生 李心月