老黄真成数字人,英伟达“元宇宙”格局打开( 二 )


文章图片
其中 , Showroom作为Omniverse公测版中的应用程序提供 , 允许非技术用户使用Omniverse技术演示 , 展示平台的实时物理和渲染技术;
Farm允许团队同时使用多个工作站或服务器 , 为渲染、合成数据生成或文件转换等任务提供支持;
VR推出领先的完全图像、光线追踪VR , 支持开发者在平台上构建自己的VR功能 , 最终用户可以直接享受VR功能;AR同理 。
另外 , 英伟达还宣布OmniverseEnterprise已进入正式发布阶段 。 它允许跨多个软件套件工作的全球3D设计团队在共享虚拟空间中通过任意设备实时协作 。 Omniverse的生态系统正在不断扩展 。
2
最新Triton推理服务器 , 助力实时
大型语言模型开发与部署
构建交流如此自如的ToyJensen , 同样离不开强大的自然语言处理模型 , 其背后的技术逻辑也在此次大会上得以展现 。
英伟达推出了为训练具有数万亿参数的语言模型而优化的NVIDIANeMoMegatron框架 , 为新领域和语言进行训练的可定制大型语言模型(LLM)Megatron530B以及具有多GPU、多节点分布式推理能力的NVIDIATriton推理服务器 。
而基于这些工具 , 不仅仅能构建ToyJensen , 企业也可以建立自己的、特定领域的聊天机器人、个人助理以及其他AI应用程序 , 高水平理解语言中细微的差别 。
NVIDIANeMoMegatron是在Megatron的基础上发展起来的开源项目 , 由NVIDIA研究人员主导 , 研究大型转换语言模型的高效训练 。 Megatron530B是世界上最大的可定制语言模型 。
老黄真成数字人,英伟达“元宇宙”格局打开
文章图片
NeMoMegatron框架经过优化 , 可以在NVIDIADGXSuperPOD的大规模加速计算基础设施上进行扩展 。
有了大型语音模型 , 如何存储和运行呢?尤其是这些模型对内存的需求极大 , 超过单个GPU甚至是多个GPU服务器所能够提供给的内存 , 且在实际应用中对推理实时性要求较高 。
NVIDIATriton推理服务器的出现解决这一问题 , 英伟达在此次大会上发布的最新NVIDIATriton具有多GPU、多节点特性 , 使大型语言模型推理工作负载能够实时在多个GPU和节点上扩展 。
老黄真成数字人,英伟达“元宇宙”格局打开
文章图片
借助Triton推理服务器 , Megatron530B能在两个NVIDIADGX系统上运行 , 将处理时间从CPU服务器上的1分钟以上缩短到0.5秒 , 令实时部署部署大型语言模型成为可能 。
事实上已经有不少企业在使用NVIDIADGXSuperPOD构建大型复杂语言模型 , SiDi、京东探索研究院和VinBrai都包括在内 。
3
其他AI新进展:Quantum-2
和JentsonAGXOrin
展望元宇宙的英伟达 , 在其他产品线方面也保持着持续更新 。
首先是推出了可进行云原生超级计算的Quantum-2平台 , 即400Gbps的InfiniBand网络平台 , 包括NVIDIAQuantum-2交换机、ConnectX-7网卡、BlueField-3数据处理器DPU(数据处理器)和所有支持这种新架构的软件 。 这也是迄今为止最先进的端到端网络平台 。 ConnectX-7将于明年1月问世 。
老黄真成数字人,英伟达“元宇宙”格局打开
文章图片
其中 , Quantum-2InfiniBand交换机基于新的Quantum-2ASIC , 采用台积电7nm节点 , 包含570亿个晶体管 , 超过有540亿晶体管的A100GPU 。
Quantum-2InfiniBand拥有400Gbps的高吞吐量 , 将网络速度提高1倍 , 网络端口数量增加了3倍 。 它在性能提升3倍的同时 , 还将对数据中心网络所需的交换机数量减少了6倍 , 于此同时 , 数据中心的能耗和空间各减少了7% 。
另外 , 全球最小、功能强大、能效最高的新一代AI超级计算机NVIDIAJetsonAGXOrin , 算力高达200TOPS , 用于机器人、自主机器、医疗器械和其他形式的边缘嵌入式计算 。