艾伦·麦席森·图灵|超级人工智能正在超出人类理解能力,人类约束它的可能性非常低( 二 )


德国马克斯-普朗克人类发展研究所的计算机科学家Iyad Rahwan说道:“这意味着,控制它们的程序是无效的。”
艾伦·麦席森·图灵|超级人工智能正在超出人类理解能力,人类约束它的可能性非常低
文章插图

我们可以在研发超级机器人的时候,给它输入一些道德的准则,就像告诉小孩子什么该做、什么不该做一样。但正如上面所说的,这样的道德约束未必能够真的起作用。也有人提出观点认为,最可靠的办法或许就是从源头上解决问题——限制人工智能的能力,比如设计一套预案,在必要的时候切断人工智能的一些网络功能,从而限制其能力。
这就是矛盾的所在:我们一方面希望人工智能可以在最大程度上给我们提供便利和服务,另一方面又心存戒备地防止它们反叛而限制能力。用咱们的一句老话来说就是:不给马吃草,还想让马跑。
不得不说,在人工智能方面,人类确实在做着一些超出自己能力范围的事情。很多人都在为超级人工智能的出现而担忧,然而又不知道它究竟何时会出现。
艾伦·麦席森·图灵|超级人工智能正在超出人类理解能力,人类约束它的可能性非常低
文章插图

马克斯-普朗克人类发展研究所的另一位计算机科学家Manuel Cebrian警示我们说:“那种可以操控整个世界的超级人工智能机器,听起来感觉是科幻小说,但现在已经出现了一些机器,其学习独立完成某些任务的能力甚至超出了开发者的理解范围。所以,关于他们是否会脱离人类的控制并威胁到人类的安全的问题,已经摆在我们面前了。”
我们知道,人工智能确实在有些方面胜过人类,比如进行一些科学发现,或者是阿尔法狗的围棋水平等等。但关于这些,我们都知道它们是如何获得这种能力的。但如果人工智能真的以人类未知的模式学习了新的能力,这就确实超乎想象了。
艾伦·麦席森·图灵|超级人工智能正在超出人类理解能力,人类约束它的可能性非常低
文章插图

【 艾伦·麦席森·图灵|超级人工智能正在超出人类理解能力,人类约束它的可能性非常低】关于人工智能反叛的科幻电影,我们也听说过不少了,这确实也是人们担心的焦点问题之一。但人工智能的发展确实又是必不可少的,人类需要它们的帮助。如何调和这两件事之间的矛盾,还有待于科学家们的进一步探索了。