人工智能|“深度合成”技术将规范发展( 二 )


新型伪造方法的层出不穷 , 加上检测算法存在结构性缺陷 , 反深度伪造检测技术面临“强对抗性” 。 田天解释说 , 这类似于“猫鼠游戏” , 深度合成和检测在不断学习攻防过程中会自我进化 , 规避上一代对抗技术 , 因此检测技术需要持续更新与迭代优化 。
【人工智能|“深度合成”技术将规范发展】目前学术界和产业界均已对反深伪检测投入了大量研究 , 谷歌、微软等机构均推出深度合成视频认证的方法或产品 。 在国内 , 瑞莱智慧推出的深度伪造内容检测平台DeepReal , 拥有工业级的检测性能和应对实网环境对抗变化的检测能力 。 “深度伪造检测面临持续的攻防和博弈 , 未来还需融合多模态内容的取证分析、基于数字水印的溯源技术等多方面能力 , 实现精准识别 。 ”清华大学人工智能研究院基础理论研究中心主任朱军说 。
构建多维度治理机制
近年来 , 针对深度合成技术恶意使用所带来的问题 , 世界各国纷纷出台管理法律法规 , 探索深度合成的治理路径 。 欧盟将深度合成纳入《通用数据保护条例(GDPR)》等现有法律框架规制 , 德国、新加坡、英国、韩国等国家 , 均有适用于深度合成技术相关犯罪案件审理的法律法规 。
我国正积极探寻建设有效治理机制 。 自2019年11月起 , 先后出台的《网络音视频信息服务管理规定》《网络信息内容生态治理规定》《互联网信息服务算法推荐管理规定》等文件 , 均对生成合成类内容提出不同程度的监管要求 。
中国工程院院士邬贺铨认为 , 治理深度合成不能搞“一刀切” , 要持续发展技术 , 避免阻碍其正向应用与创新 。 其衍生出的安全问题需从源头解决 , 引导人工智能学术界、产业界不断加强技术研发 , 并扩展深度合成溯源、深度合成鉴定等方面的研究 , 防范伦理安全风险和合规风险 。
引导深度合成技术良性发展 , 需探索多维度治理机制 。 中国社科院哲学所科技哲学研究室主任段伟文建议 , 加强对深度合成的技术、法律和伦理问题展开系统性前瞻性跨学科研究 , 对其可能出现的高风险应用场景采取有针对性的治理与监管 。
中科院自动化所研究员曾毅则倡导产学研发展自律自治 , 他表示 , 在法律法规未形成体系化之前 , 产业界自身应强化理论先行意识 , 防范滥用、严禁恶用 。
在对外经济贸易大学法学院副教授许可看来 , 社会层面应加大宣传普及力度 , 强化公民对深度合成等人工智能技术的认识 , 提高全社会防范意识 。
田天对此有相同看法 , 他认为深度伪造的本质问题是透明度不足 , 因此提高公众对深度合成技术的认知尤为重要 , 只有将门槛降低到所有受众能够在共同框架下认识、讨论、理解这个问题的时候 , 深度合成技术才能健康良性发展 。
业内专家建议 , 各方应当落实好新的规范要求 , 在此前提下不断追求技术突破 , 开拓深度合成技术应用场景 , 形成对人工智能产业的带动效应 。 采访人员 李芃达