招商|Nvidia 在 GTC 2022 上推出下一代Hopper GPU 架构和更多加速应用( 二 )


对于以隐私为中心的应用程序 , H100也是第一个支持机密计算的加速器(以前的实现仅适用于CPU) , 允许通过虚拟化的可信执行环境对模型和数据进行加密和保护 。

               该架构确实允许在机密计算模式下进行联合学习 , 这意味着具有私有数据集的多家公司可以通过在不同的安全环境中传递模型来训练相同的模型 。 此外 , 由于多实例 GPU (MIG) 的第二代实现 , 单个物理 GPU 可以拆分为七个独立的隔离工作负载 , 从而提高了芯片在共享环境中的效率 。Hopper还支持Nvidia的第四代NVLink版本 , 这是一个重大飞跃 , 与以前的技术相比 , 带宽增加了9倍 , 支持多达256个GPU的连接 , 并支持使用NVLink Switch 。 后者不仅能够在单个系统内保持高速连接 , 而且还能够与外部系统保持高速连接 。 反过来 , 这又使一系列新的DGX Pods和DGX SuperPods , Nvidia自己的品牌超级计算机硬件 , 以及前面提到的Eos超级计算机 。

说到NVLink和物理连接 , 该公司还宣布支持一种名为Nvidia NVLink-C2C的新型芯片到芯片技术 , 该技术专为Nvidia组件之间的芯片到芯片和芯片到芯片连接而设计 , 速度高达900 Gbps 。该公司正在开放以前专有的NVLink标准 , 以与其他芯片供应商合作 , 并特别宣布它还将支持新推出的UCIe标准(请参阅\"\"了解更多信息) 。

这为该公司提供了更大的灵活性 , 因为它可以与其他公司合作创建异构部件 , 就像半导体行业的其他人也开始做的那样 。       英伟达选择利用自己的NVLink-C2C开发新的Grace Superchip , 该芯片结合了该公司两个基于Arm的CPU , 并透露去年预览的Grace Hopper Superchip使用相同的互连技术在其单个Grace CPU和Hopper GPU之间提供高速连接 。

这两种\"超级芯片\"都针对数据中心应用程序 , 但它们的架构和底层技术让我们很好地了解了PC和其他主流应用程序的发展方向 。       NVLink-C2C标准支持行业连接标准 , 如Arm的AMBA CHI协议和CXL , 也可用于互连DPU(数据处理单元) , 以帮助加快系统内部和系统之间的关键数据传输 。
除了所有这些以数据中心为重点的公告外 , 英伟达还为其用于辅助和自动驾驶的Drive Orin平台以及用于机器人技术的Jetson和Isaac Orin平台推出了更新和更多现实世界的客户 。
总而言之 , 这是众多技术 , 芯片 , 系统和平台的令人印象深刻的发布 。 显而易见的是 , 未来要求苛刻的人工智能应用程序以及其他困难的计算挑战 , 将需要多个不同的元素协同工作才能完成给定的任务 。
因此 , 增加芯片类型的多样性以及允许它们相互通信的机制将与各个类别中的进步一样重要 , 如果不是更重要的话 。 更简洁地说 , 我们显然正在进入一个互联的多芯片世界 。