陈昌凤|滥用深度合成技术风险加剧,专家呼吁以技术对抗应对

近年来,作为人工智能的创新应用,利用深度学习、虚拟现实等生成合成类算法制作图像、音频、视频、虚拟场景等信息的深度合成技术在众多领域应用。激发的新内容创造力同时,也带来了诸多新威胁。
清华大学人工智能研究院、北京瑞莱智慧科技有限公司、清华大学智媒研究中心、国家工业信息安全发展研究中心、北京市大数据中心近日联合发布《深度合成十大趋势报告(2022)》提醒,恶意使用深度合成技术已显现出巨大的破坏力,专家呼吁应该通过用技术创新、技术对抗等方式应对解决相关威胁,而非对深度合成技术“一刀切”式禁止。
深度合成在影视制作、广告营销、社交娱乐等领域发展出多元化的商业应用,例如AI合成主播、虚拟偶像、修复历史老照片、影视剧本地化配音、“数字复活”已过世演员等。一些面向公众开发的合成类产品也陆续推出,《报告》显示,视频、语音和文本形式的服务最为普遍,例如支持风格定制的特效视频制作软件等风靡网络;语音方向衍生出了语音导航、有声读物、自动新闻播报等应用;文本合成则在新闻报道、诗文创作、聊天问答等方面发挥着重要作用。
瑞莱智慧CEO田天认为,技术不断成熟是深度合成内容迎来爆发式增长的重要原因。研究论文的持续增加、开源技术工具和大量代表性方法的涌现,使得深度合成内容的效果更加逼真、制作也更加高效,尤其是生成对抗网络等算法的出现,让合成内容达到了 “真假难辨”的程度。
深度合成激发了新内容创造力的同时,也带来了新的威胁。随着技术逐步“平民化”,不法分子可轻易伪造音频、视频,实施诬陷、诽谤、诈骗、勒索等违法行为,甚至捏造国家政要言论扰乱社会与政治秩序。2021年10月,安徽合肥警方曾查获一起非法利用深度合成技术伪造手机用户人脸动态视频破解身份核验,为黑灰产业提供注册虚拟手机卡等技术支撑的案件。近年来,越来越多的类似事件开始进入公众视野。
【 陈昌凤|滥用深度合成技术风险加剧,专家呼吁以技术对抗应对】深度合成内容模糊了真实和虚假的边界,将对社会信任、媒体信任、政治信任产生巨大的影响。清华大学新闻与传播学院常务副院长陈昌凤提醒,在社会重大事件或政治事件节点上,深度合成技术可能被用于操作舆论意见,借助社交媒体,使虚假信息短时间内引发产生病毒式扩散,激化社会矛盾。
中国工程院院士邬贺铨认为,深度合成的治理首先要持续发展技术,不能“一刀切”地禁止,避免阻碍正向应用与创新。衍生出的安全问题要从源头上解决,利用技术创新、技术对抗等方式,持续提升和迭代检测技术的能力。
报告显示,目前学术界和产业界均已对反深伪检测投入了大量研究,Meta(原脸书)、谷歌、微软等机构均推出了深度合成视频认证的方法或产品。在国内,清华大学、中科大等高校在深度伪造内容检测方面取得显著成果,清华大学孵化团队瑞莱智慧推出了深度伪造内容检测平台DeepReal等。
清华大学人工智能研究院基础理论研究中心主任朱军认为,深度合成检测面临持续的攻防和博弈,未来还需融合多模态内容的取证分析、基于数字水印的溯源技术等多方面能力,实现精准识别。
对于深度合成内容治理路径的探索,陈昌凤认为,可以从技术、伦理与法制等几个方面努力,技术方面,通过政府与社会组织参与、协同治理,伦理方面,确立和倡导相关的深度合成原则。
中国社科院哲学所科技哲学研究室主任段伟文建议,对深度合成技术引发的社会、法律和伦理问题,应展开有系统性、前瞻性的跨学科研究,对其可能出现的高风险应用场景,进行有针对性的治理与监管。