从几个月到几分钟,NLP模型运行效率暴涨,小公司也能玩大模型( 二 )


从几个月到几分钟,NLP模型运行效率暴涨,小公司也能玩大模型
文章图片
▲Cerebras公司的WSE-2芯片与最大GPU的对比(图源:Cerebras)
三、客户遍布全球 , 新系统可助基因研究
目前 , 这项技术已经在全球范围内被广泛采用 。 CerebrasSystems公司在北美、亚洲、欧洲和中东地区都有客户 , 这些客户包括GSK、阿斯利康、TotalEnergies、匹兹堡超级计算中心、莱布尼茨超级计算中心、爱丁堡并行计算中心(EPCC)、国家能源技术实验室等等 。
这项技术在客户公司中广获好评 。 英国制药公司GSK是CS-2系统的使用客户之一 , 该公司的人工智能高级副总裁KimBranson表示:“GSK需要新的设备来处理通过基因组和基因研究生成的极其庞大的数据集 。 而CerebrasSystems公司的CS-2系统在我们公司使用生物数据集进行语言模型训练中承担重要功能 。 使用这个系统后 , 我们能够处理的数据规模远远超过以前 。 这个模型是GSK公司许多人工智能系统的基础 , 在我们进行药物转型研究方面发挥着重要作用 。 ”
从几个月到几分钟,NLP模型运行效率暴涨,小公司也能玩大模型
文章图片
▲WSE-2芯片的主要参数配置(图源:Cerebras)
结语:CS-2系统实现技术突破 , 推动人工智能向前发展
CerebrasSystems公司的CS-2系统可以在单个设备上运行参数量超过数十亿的NLP模型 , 这是人工智能领域的一项重要技术突破 。 这不仅扩充了单个设备上NLP模型的参数容量 , 还让更多公司能够使用大型NLP模型 , 扩大其应用市场 。
但是 , AI技术想要获得突破 , 不能只靠提高参数数量 , 扩大模型体量 。 就像CPU的主频一样 , AI模型的参数量只是一个指标 。 更重要的是用更少的参数达到更好的结果 。 毕竟 , 训练AI模型的目的是让这些模型工作得更聪明 , 而不是更努力 。
来源:VentureBeat