巨大飞跃!给英伟达1.6万亿个晶体管,它就能承托全球互联网流量

英伟达(Nvidia)一年一度的GTC大会如期而至 , 两年一更新的GPU架构Hopper也正式亮相 。
今年 , NVIDIA创始人兼CEO黄仁勋在英伟达新总部大楼发布了一系列新品 , 从新架构GPUH100 , 到GraceCPU超级芯片 , 再到汽车、边缘计算的硬件新品 , 以及全面的软件更新 。
英伟达的全新发布再次向外界宣告 , 英伟达不止是一家芯片公司 , 而是全栈计算公司 。 他们正在加强其在AI、汽车等领域的领导力 , 同时也在努力占领下一波AI浪潮以及元宇宙的先机 。
当然 , 作为一家发明GPU的公司 , 英伟达的全新GPU架构依旧是GTC2022最值得关注的新品 。
NvidiaHopper新架构以美国计算机领域的先驱科学家GraceHopper的名字命名 , 将取代两年前推出的NVIDIAAmpere架构 。 相比上一代产品 , 基于Hopper架构的H100GPU实现了数量级的性能飞跃 。
巨大飞跃!给英伟达1.6万亿个晶体管,它就能承托全球互联网流量
文章图片
黄仁勋表示 , 20个H100GPU便可承托相当于全球互联网的流量 , 使其能够帮助客户推出先进的推荐系统以及实时运行数据推理的大型语言模型 。
基于H100GPU构建的各种系统 , 以及与GraceCPU超级芯片组合的各种系统 , 配合英伟达多年构建强大的软件生态 , 将成为了英伟达掀起新一代计算浪潮的能量 。
H100GPU将在今年第三季度出货 , 明年上半年开始供货GraceCPU超级芯片 。
最新Hopper架构H100GPU的6大突破
黄仁勋2020年从自家厨房端出的当时全球最大7nm芯片Ampere架构GPUA100 , 两年后有了继任者——Hopper架构H100 。 英伟达H100GPU采用专为英伟达加速计算需求设计优化的TSMC4N工艺 , 集成800亿个晶体管 , 显著提升了AI、HPC、显存带宽、互连和通信的速度 , 并能够实现近5TB/s的外部互联带宽 。
巨大飞跃!给英伟达1.6万亿个晶体管,它就能承托全球互联网流量
文章图片
H100同时也集多个首个于一身 , 包括首款支持PCIe5.0的GPU , 首款采用HBM3的GPU , 可实现3TB/s的显存带宽 , 全球首款具有机密计算功能的GPU 。
H100的第二项突破就是其加速器的Transformer引擎能在不影响精度的情况下 , 将Transformer网络的速度提升至上一代的六倍 。 Transformer让自监督学习成为可能 , 如今已成为自然语言处理的标准模型方案 , 也是深度学习模型领域最重要的模型之一 。
雷峰网了解到 , H100将支持聊天机器人使用功能超强大的monolithicTransformer语言模型Megatron530B , 吞吐量比上一代产品高出30倍 , 同时满足实时对话式AI所需的次秒级延迟 。
H100的第三项突破是进一步升级的第二代多实例GPU 。 上一代产品中 , 英伟达的多实例GPU技术可将每个A100GPU分割为七个独立实例来执行推理任务 。 新一代的HopperH100与上一代产品相比 , 在云环境中通过为每个GPU实例提供安全的多租户配置 , 将MIG的部分能力扩展了7倍 。
MIG技术支持将单个GPU分为七个更小且完全独立的实例 , 以处理不同类型的任务 。
H100的第四项突破就是其是全球首款具有机密计算功能的加速器 , 隐私计算此前只能在CPU上实现 , H100是第一个实现隐私计算的GPU , 可保护AI模型和正在处理的客户数据 。 机密计算的优势在于其不仅能确保数据的机密性 , 同时还不影响性能 , 可以应用于医疗健康和金融服务等隐私敏感型行业的联邦学习 , 也可以应用于共享云基础设施 。
H100的第五项突破是在互联性能的提升 , 支持第4代NVIDIANVLink 。 如今的AI模型越来越大 , 带宽成为了限制超大规模AI模型迭代的阻碍 。 英伟达将NVLink结合全新的外接NVLinkSwitch , 可将NVLink扩展为服务器间的互联网络 , 最多可以连接多达256个H100GPU , 相较于上一代采用NVIDIAHDRQuantumInfiniBand网络 , 带宽高出9倍 。