ai|用全球最快 AI 超算秀肌肉后,黄仁勋要用 AI 抓住元宇宙命门

ai|用全球最快 AI 超算秀肌肉后,黄仁勋要用 AI 抓住元宇宙命门

文章图片

ai|用全球最快 AI 超算秀肌肉后,黄仁勋要用 AI 抓住元宇宙命门

文章图片

ai|用全球最快 AI 超算秀肌肉后,黄仁勋要用 AI 抓住元宇宙命门

文章图片

ai|用全球最快 AI 超算秀肌肉后,黄仁勋要用 AI 抓住元宇宙命门


AI , 还是「核弹厂」最好的故事 。
作者 | 鱼三隹编辑 | 靖宇
「下一个时代的 AI」 , 在北京时间 3 月 22 日的英伟达 GTC 大会上 , 长达 1 小时 40 分钟的主题演讲中 , 创始人黄仁勋多次说起这个词 。
黑色的虚拟场景中 , 黄仁勋有条不紊地介绍了一系列服务于 AI 运算的硬件、软件、AI 和机器人的应用框架 , 并介绍了英伟达过去一段时间借助 AI 在自动驾驶、虚拟世界、医疗等领域的成就 。
去年 11 月秋季的 GTC2021 上 , 黄仁勋曾高调宣布「进军元宇宙」 , 相比之下 , 此次的 GTC2022 聚焦的问题则接地气的多 。
诞生至今 , 「元宇宙」从被行业热捧 , 到成为「不切实际」的代名词 , 可谓大起大落 。 冷静之后还未离场的元宇宙玩家们 , 不得不思考一个严肃的问题:要到达如此之远的未来 , 该从哪些事情做起 。
「AI」 , 是英伟达抓住的元宇宙命门 。
对于元宇宙而言 , 图像处理、生成能力面临千万级别的提升 , 而 AI 恰能进行更为复杂、更为精细的图像处理 , 无论是在复制模拟 , 还是在创新构建等方面 , AI 都是不可或缺的基础 。
「AI」背后更为基础、更为关键的是「算力」 。
历经十几年的发展 , 越来越多的数据被汇集 , 越来越多的大型算法模型诞生 , 随之而来的是有待处理的数据与参数的急剧上升 。
有专业人士认为 , 要想实现《雪崩》中所描绘的元宇宙景象 , 起码需要 1000 倍的算力增长 , 苹果、特斯拉、Meta 等行业巨头也正逐渐转向芯片自研与定制 。
行业呼唤更高效的计算硬件基础 , 面对突如其来杀到门口的「野蛮人」 , 英伟达选择主动出击 。
此次英伟达无论是发布基于全新架构 Hopper 的 H100 GPU、Grace CPU , 还是展现自身在 AI 软件方面的进展 , 无不透露出其对于抢立下一代 AI 潮头的布局与野心 。
01 算力:重中之重 NVIDIA H100
主题演讲中 , 首先发布的是 H100 , 这是首款基于全新 Hopper 架构的 GPU 。
NVIDIA H100 采用的是 TSMC 4N(台积电 4 纳米)工艺 , 集成 800 亿个晶体管 , 显著提升了 AI、HPC、显存带宽、互连和通信的速度 , 并能够实现近 5TB/s 的外部互联带宽 。
「20 块 H100 GPU可以承担起全球互联网的流量!」黄仁勋在会上豪迈宣布 。
H100 实现了数量级的性能飞跃 , 是英伟达有史以来最大的图形处理器之一 。 其 FP8 算力是 4PetaFLOPS , FP16 则为 2PetaFLOPS , TF32 算力为 1PetaFLOPS , FP64 和 FP32 算力为 60TeraFLOPS 。
【ai|用全球最快 AI 超算秀肌肉后,黄仁勋要用 AI 抓住元宇宙命门】NVIDIA H100 | 英伟达
H100 的大规模训练性能是「前辈」A100 的 9 倍 , 大型语言模型推理的吞吐量是 A100 的 30 倍 ,
与此同时 , Hopper 还专门为 Transformer 打造了专有引擎 , 这将使得原本耗时几周的训练缩短到几天之内 。 在模型训练精度不变的情况下 , 性能提升 6 倍 。
此外 , H100 还是全球首款具有机密计算功能的加速器 , 无论是 AI 模型还是客户数据都将受到保护 。