第二代人工智能遭遇“天花板”?专家:唯有安全可信,才能穿越技术周期

第二代人工智能遭遇“天花板”?专家:唯有安全可信,才能穿越技术周期
文章图片
“以数据驱动的深度学习 , 其技术潜力已接近‘天花板’ 。 ”9月1日 , 在2022世界人工智能大会-可信AI论坛 , 瑞莱智慧RealAI合伙人、高级副总裁朱萌发表了演讲 。
第二代人工智能是以数据驱动的深度学习 , 在本世纪第二个十年高歌猛进 。 但学界普遍认为 , 从应用的角度来看 , 深度学习的本质是利用没有加工处理过的数据 , 以概率学习的“黑箱”处理方法寻找规律 。 这一方法本质上不可解释 , 非常脆弱 , 带来了新的风险和问题 。
朱萌以瑞莱智慧团队所做的研究成果举例:在自动驾驶场景中 , 通过修改锥桶的形状 , 就能让汽车感知模块失效 , 径直撞上去;通过在T恤上打印含特殊的花纹 , 就能让检测系统捕捉不到穿这件衣服的人 , 实现“隐身”;制作带有特制花纹的眼镜 , 可刷开数十部商用手机的人脸解锁等 。
为此 , 清华大学人工智能研究院名誉院长、瑞莱智慧首席科学家张钹院士提出要发展“第三代人工智能” , 在实现高水平安全的前提下 , 为人工智能高水平发展提供动力和支撑 。
安全可信 , 已成为人工智能稳健发展的主要抓手 , 也将逐步成为行业规范化、技术商业化的关键助推器 。
“人工智能当前的安全风险主要可以从‘系统’与‘人’两个视角来剖析 。 ”朱萌认为 , 系统层面来看 , 以深度学习算法为核心的人工智能系统十分脆弱 , 其结构性漏洞致使“对抗样本攻击”不可避免 , 而其数据依赖性则使其存在“数据投毒”漏洞 , 出现“后门攻击” 。 从“人”的层面来评估AI的可信问题 , 主要风险来自人的滥用、恶意应用 , 最为典型的就是深度合成技术 。 它大幅降低了信息生成合成的难度 , 但其负向应用已产生实质危害 , 甚至存在“武器化”风险 。
针对上述风险 , 瑞莱智慧于今年6月成立了人工智能治理研究院 , 探寻从伦理法规到技术落地的人工智能治理实践之路 。
第二代人工智能遭遇“天花板”?专家:唯有安全可信,才能穿越技术周期】据介绍 , 瑞莱智慧搭建了系列安全可控新一代人工智能基础设施 , 在数据可用、算法可靠、应用可控等方向上均有世界领先技术和独创功能 , 目前已在政务、金融、工业互联网等高价值场景中发挥了作用 。