G瑞莱智慧徐世真:隐私计算商业化落地面临四大挑战, mpc( 二 )


第一,生态壁垒。隐私计算解决数据孤岛的问题,但解决了之后,反而会诞生技术孤岛的问题,各家隐私计算的技术互不相通,也无法互相连接,基本意味着上层的代码需要重构。
第二,计算性能。速度慢,因为引入了很多密码学操作,要么是MPC带来的通信问题,要么是同态加密带来的计算性能问题,很难支撑大规模数据训练,如果是亿级或十亿级的训练,单纯用联邦学习或者MPC很难实现。
第三,安全性。各家从知识产权的角度不太会公开自己的底层协议(除了一些开源项目),这就带来协议不透明的问题,难以审计。安全性如果没办法审计,将会蕴含巨大漏洞。
第四,可用性。我们为了做数据生态、解决方案生态,不可能要求客户自己连接数据,所以作为一家隐私计算技术的服务商,我们需要提供开箱即用的数据,甚至需要提供开箱即用的解决方案,让用户能够在不改变原来中心化非隐私计算操作体验的情况下来使用隐私计算平台。
三、AI发展趋势为隐私计算的未来发展提供借鉴
刚刚聊到AI和隐私计算之间的关系,其实我们可以用AI的发展趋势预测隐私计算将来的发展趋势。
第一,AI为隐私计算解决兼容互通问题提供了借鉴。AI也有很多框架,比如Tensorflow、PyTorch,各个框架之间也很难互通,但后来出现了ONNX,在数据流图层把各家的协议集中汇聚起来,再转移成另一个框架可以执行的东西。数据流图层面的兼容,是AI发展为解决框架之间互联互通问题提出的方案,对隐私计算的互联互通具有借鉴意义。
第二,AI为隐私计算性能优化提供了方向。我们知道AI也是吃算力的,AI的性能优化基本沿着两条路线,一是硬件升级,最早是CPU,后来又有GPU,再到现在专用的AI芯片;二是算法升级,包括模型的压缩、蒸馏、剪枝,把大模型变成小模型,这些对于隐私计算的发展也是适用的。
第三,AI为隐私计算解决安全性问题提供了路径。我们做了一个技术实验,一张雪山的图片,经过添加对抗噪声,可以让AI识别错误,让其识别成一张狗的图片,这是AI的安全性问题。隐私计算也面临类似的问题,比如通过横向联邦中的数据投毒、模型污染化,所以AI和隐私计算在安全性提升方面面临的问题也是相通的。
第四,AI为隐私计算场景落地问题提供了借鉴。前几年一直说AI赋能万物,AI赋能所有产业,现在大家发现是产业结合AI、场景结合AI。隐私计算目前也处在这两种思想的汇聚期,到底是隐私计算作为底座赋能所有产业,还是结合具体场景来选择相应的隐私计算技术?这是两种路线之争。当然,我们相信结合场景的AI更有价值,结合场景的隐私计算也更实际、更可落地、更有价值。
从AI的发展经验来推演隐私计算的发展,在技术路径方面,概括来说有以下几个思路:
第一,编译器路线。兼容互通应该在底层算子层完成,不应该只停留在软件层或集成层,底层数据流图也是安全、可追溯、可验证的工具,可表达计算逻辑。第二,性能优化。短期可以通过优化底层的密码库来实现,未来还需要新硬件的介入,更好地提升速度。第三,隐私计算的安全性,包含抵御密码协议层和应用层的恶意攻击,随着AI的发展,一些对抗样本攻击的问题开始出现,隐私计算的发展将来也将面临一些新安全问题,我们应该在当前发展的时候就考虑到,而不是先发展后治理。
四、隐私计算的产业路径需要逐场景落地
同样参考AI发展模式,我们认为隐私计算的产业路径需要逐场景落地,并根据不同的场景选择不同的技术路线。借用信通院讲的三大技术路线来阐述多方安全计算、联邦学习和可信执行环境各个路线之间的优劣势。