深读|特斯拉AI技术体系的灵魂是什么?( 二 )


“这方面的工作不仅可以获得更大规模的合成数据 , 而且对基于深度强化学习的决策规划研究 , 对应用落地之前如何解决长尾问题、边缘小概率事件等 , 都具有特别重要的意义 。 ”邓志东表示 。
随着所需处理的数据开始呈指数级增长 , 特斯拉也在提高训练神经网络的算力 , 因此 , Dojo超级计算机诞生 。 实际上马斯克此前已经多次“剧透”过Dojo超级计算机的存在 , 这次AI日发布的 , 更引人注目的是组成Dojo超级计算机的关键单元——特斯拉自主研发的神经网络训练芯片——D1 。
早在2019年4月特斯拉就量产了自研的FSD芯片 , 这次展示的D1芯片 , 在架构与性能上都有了大幅度升级 。 据称 , D1芯片采用分布式结构和7纳米工艺 , 搭载了500亿个晶体管、354个训练节点 , 仅内部的电路就长达17.7公里 , 实现了超强算力和超高带宽 。
而Dojo超算 , 原来是由5760块英伟达的A100显卡构建 , 而现在则完全改成了自研 , 由3000块D1芯片或120个训练单元组成 , 总算力达到了9PFLOPs(9千万亿次) , 能够适应海量视频大数据 , 实现AI大模型训练 。
马斯克曾表示 , 最终会将Dojo超算提供给希望使用它来训练神经网络的其他公司 , 这意味着 , 特斯拉有可能将AI应用扩展到自动驾驶之外的其他领域 , 这次亮相的机器人便在一定程度上证实了这个可能性 。
深读|特斯拉AI技术体系的灵魂是什么?
文章图片
据悉 , TeslaBot高1.72米 , 重56.6千克 , 脸上的屏幕可显示信息 , 拥有人类水平的双手 , 并有力反馈感应 , 能够实现平衡和敏捷的动作——它就将利用Dojo超级计算机的训练机制来改进功能 。
马斯克表示:“未来劳动力不会短缺 , 但体力劳动只是一种选择 。 TeslaBot可以执行一些危险性、重复性、枯燥的任务 。 ”这个项目已经提上日程 , 按照计划 , TeslaBot或将在明年推出首个原型机 。
邓志东指出 , 目前的AI , 可以对产业赋能的实际就是具有学习能力的数据智能 , 或者说大规模的神经网络 , 从AI算法来看 , 特斯拉显然抓住了多摄像头视觉神经网络这一核心架构 , 力图通过神经网络固有的学习能力 , 来解决自动驾驶甚至是个人机器人场景的一切问题 。
“用自主学习来解决感知、预测与规控等挑战 , 可以充分发挥机器超越人类的能力 , 这是特斯拉AI技术体系的灵魂 , 也是特斯拉在理念上最领先的地方 。 ”邓志东指出 。
AI落地仍存挑战
此次“秀肌肉” , 特斯拉的目的是为了招揽AI领域更多的专业人才 。
尽管特斯拉是自动驾驶行业一定意义上的“领头羊” , 但其距离真正的无人驾驶也还有很长一段距离 , 即便是现在已经落地的辅助驾驶功能 , 也并未做到尽善尽美 。 从这个角度看 , AI技术进一步发挥作用还有待进一步完善 。
近期 , 美国国家公路交通安全管理局(NHTSA)启动了对特斯拉的调查 。 据悉 , NHTSA调查的11起事故均与特斯拉的Autopilot(自动辅助驾驶)或其他自动驾驶功能有关 , 其中 , 7起事故造成了人员伤亡 , 共计17人受伤和1人死亡 。
具体而言 , 这些事故发生在2018年1月22日至2021年7月10日之间 , 横跨九个不同的州 。 它们大多发生在晚上 , 事故后的场景中都有一些诸如急救车灯、照明弹、发光箭头板和路锥等物体——从场景上看 , 在道路救援人员停下车辆实施救援任务的时候 , 特斯拉的自动辅助驾驶功能未能成功识别到这些物体和车辆 , 进而发生碰撞 。
上汽集团技术中心的一位规控工程师在分析该类事故原因时指出 , 锥桶+静止异性车辆是个典型的边缘场景 , 单纯摄像头甚至是摄像头+毫米波雷达的传感器组合都很难覆盖到这个场景 。 “首先 , 锥桶形状比较小 , 远距离下毫米波雷达很难扫到 , 静止目标(包含车辆)则很容易被过滤掉 。 而摄像头如果没有针对的训练 , 无法识别出障碍物也会变成睁眼瞎 。 即使距离驶近后识别到了车辆 , 也因为高速近距离而无法避免碰撞 。 ”