算法|张钹:AI不安全性源于算法本身,有必要发展第三代人工智能( 二 )


张钹强调,知识这一要素,对第三代人工智能来讲尤为重要,也就是要让计算机真正认识“什么是马”。
如何实现这一目标?张钹介绍,一种办法是通过概率或向量等方法将知识表达出来,用对抗样本来训练算法。这样做的好处在于,可以与原来的算法相结合,发挥深度学习的某些优势,还可以利用各种各样的数学工具。但这种办法也只能“治标”,计算机只对特定的对抗样本有识别能力,换一种对抗样本就失灵了。
另一种解决问题的根本办法,是让计算机像人类儿童一样,通过无监督学习或预训练等,建立模型。目前业界使用的人工神经网络与大脑的神经网络差别很大,大脑的反馈连接、横向连接、注意机制、多模态、记忆等模式都没有在人工智能中应用。接下来可以逐步考虑利用这些机制。
张钹表示,这两种办法都有必要去探索,也都很艰巨。“解决人工智能安全性问题既要抓治理,也要抓创新发展。两者都是长期的任务,有很长的路要走。”
采写:南都采访人员马嘉璐