GPU|英伟达不卖中国GPU,车圈为什么先慌了?

GPU|英伟达不卖中国GPU,车圈为什么先慌了?

文章图片

GPU|英伟达不卖中国GPU,车圈为什么先慌了?

文章图片

GPU|英伟达不卖中国GPU,车圈为什么先慌了?

文章图片


缺芯的事还没整明白 , 美国又向中国汽车产业抛出了一颗雷:禁止英伟达/AMD对中国客户出售高端GPU 。

理由还是老三样:暗藏后门(比如之前的华为通讯设备禁令) , 可能被用作军事目的 , 存在国家安全风险 。
真实的原因想必不用猜 , 这些年 , 中国科技和经济水平发展迅猛 , 美国自觉墙角被挖 。 针对技术实施的出口禁令 , 也是屡试不爽 。
这一次 , 主角轮到了先进算力领域的GPU 。
GPU是什么?
GPU有一个俗名:显卡 , 屏幕显示的画面通通离不开它 。
一个强悍的显卡 , 所能提供的不仅仅是高清精美、不卡顿的画面 。 作高清视频编辑 , GPU转码的速度也十分迅捷 。

准确地讲 , GPU是显卡的心脏 , 是其主要组成部件 。 近几年 , GPU从电脑硬件发展成为“挖矿专家” , 每一份火爆的挖矿成绩背后 , 少不了它的功劳 。
不过 , 美国此次的禁令并不是所谓的显卡” , 而是通用GPU(或者说GPGPU) , 因此不会伤及游戏党和矿工的快乐 。 首当其冲的其实是 , 超算和云服务 。
超级计算机是“国之重器” , 比如“神威·太湖之光”、“天河”等就算力惊人 , 在航空航天、气候气象、石油勘探等数十个领域应用广泛 。 自2015年的美国禁令后 , 我国超算正在逐步实现芯片的国产替代 。

云服务指的是通过互联网访问本地数据 , 信息随用随拿 , 例如阿里云和腾讯云 。 云和数据中心像一对连体婴儿 , 数据中心(Internet Data Center)是托管所 , 集中管理各类数据 , 以便后续在“云”上计算 。
以上两大领域 , GPU类似于“矿卡” , 扮演“加速器”的角色 。
这一概念是英伟达2007年提出的 。 由于数据之多 , 计算之庞杂 , CPU的能力捉襟见肘 , 而GPU是并行计算(同时执行多条指令)的高手 , 既能让云端程序加速运行 , 又能让数据中心的服务器一台多用 。
这一次 , 英伟达被限制出口的A100和H100 , AMD被禁的MI100和MI200 , 就是超算、云端数据中心所需的加速卡 。

既如此 , 那为何车企先慌了?
何小鹏的一条朋友圈 , 把本该云服务商担心的事拉回到了车圈的视线范围 。
在自动驾驶系统中 , 感知模型的训练需依据大量数据 , 进行深度学习 。 这也是 , 为什么Robotaxi和特斯拉等车企都在累积辅助驾驶的行驶里程 。
研发阶段 , 如果按照10台测试车 , 全年300天的行驶里程估算 , 单车每天约产生10TB的数据 , 每年产生的总数据量在30PB左右;
而到商用阶段 , 随着车队规模不断扩大 , 车企面临的数据量将朝着ZB级发展(1PB = 1024TB , 1EB=1024PB, 1ZB=1024EB) 。 传统增设服务器、扩大机房的方法已不能满足数据膨胀对算力的要求 。
因而这些工作 , 大部分转移到了云端 。

简单理解 , 车辆采集到的、对实时性要求高的信息会在车载计算平台(英伟达Orin、华为MDC、高通Snapdragon Ride等)作本地处理 , 即边缘计算 , 同时一部分信息在边缘层进行预处理 , 把没用的先丢掉;
其余数据 , 会直接传输至云端 , 用作AI算法模型的深度学习训练 。
AI时代 , 算力的边界几乎决定了模型训练的成果 。 这也使得 , 云端所需的GPU往往是大算力、高带宽的 。