人工智能|从黑科技到热科技 如何释放算力加速AI落地?( 三 )


浪潮信息副总裁、浪潮信息 AI&HPC产品线总经理刘军对此做了更详尽的解释:智算时代,每一个特定应用场景的计算特点不同,数据量都非常大,按照传统通用的计算芯片模式,计算效能相对比较低,所以需要针对特定领域的应用去做智算架构的创新,多元AI芯片繁荣从产业本质上成为发展的驱动力。
浪潮作为一个平台厂商通过两个方面的努力来抹平这道鸿沟。
一是算力平台本身,要支持不同的芯片,能够有一个非常高性能、强壮的平台来统一容纳各种芯片,提供芯片之间的高速交换、节点之间的高速信息连通,“浪潮现在是唯一一个能够设计、研发、支持八颗国产最高端的AI芯片在一个系统里面进行高速互联的AI服务器的厂商。”刘军表示。在AI算力平台方面浪潮一路领跑,以先进的技术换来全球市场份额第一的地位。
二是软件层面,每一颗芯片都需要与客户的应用对接,这就意味着用户要为不同的AI芯片构筑新的烟囱系统。浪潮的AI开发服务平台AIStation构建了一个支持多元异构AI芯片的规范接口的标准,目前已经接入了国内外六家公司的12款AI芯片,可以在一个资源平台上面实现高效管理多元的AI芯片,这就给客户最终使用带来极大的方便,他们只需要聚焦于自己业务的创新,不需要为底层多元算力分散精力,从而大大提升了创新的效率。
“浪潮将发挥算力平台领导厂商的作用,建立起多元AI芯片和产业AI化之间的桥梁。”刘军表示。

“源1.0”填补算力与应用之间的鸿沟
人工智能那么好,但是怎么跟客户的业务、应用场景结合?一面是轰轰烈烈在发展的AI技术,一面是迫不及待想通过AI创新的企业。“我们发现很多科学家在用不同领域的模型去解决问题,但当场景或者数据发生了变化,就要推倒重来,大大影响了产业落地速度。”刘军认为在AI技术与应用场景之间的鸿沟主要是来自通用性的挑战,大多数AI模型都只能用于某一特定领域,通用性不强,限制产业AI化进程。
人工智能如何发展出像人类具备逻辑、意识和推理的认知能力,是人工智能研究一直在探索的方向。“目前来看,通过大规模数据训练超大参数量的巨量模型,被认为是非常有希望实现通用人工智能的一个重要方向。”王恩东院士认为,随着巨量模型的兴起,巨量化已成为未来人工智能发展非常重要的一个趋势。
近年来人工智能的发展,已经从“大炼模型”逐步迈向了“炼大模型”的阶段,全球知名的AI领先公司在巨量模型上都予以重兵投入。这两年大模型这个概念特别热,谷歌、微软、英伟达、浪潮、智源研究院、百度、阿里等公司相继推出了各自的巨量模型。显然,“巨量数据、巨量算法和巨量算力”正在成为迈向通用人工智能的重要路径。
其中浪潮人工智能研究院发布的“源1.0”致力于打造最“博学”的中文AI模型, “源1.0”的单体模型参数量达2457亿,超越美国OpenAI组织研发的GPT-3,是目前全球最大中文巨量模型,占据权威中文语言理解测评基准CLUE的零样本学习(zero-shot)和小样本学习(few-shot)2项榜单榜首。
“原来的(AI)方式,我们培养了很多只会拧螺丝的人或者是只会敲锤的人。今天我们练出来是一个八级的钳工,你只要稍微示范一下他就都会干,并且干得比别人还出色。”刘军这样形象的比喻“源1.0”的价值。“源1.0”聚合了AI最强算力平台、最优质的算法模型开发能力,将支撑和加速行业智能的构建,最终帮助用户完成业务智能转型升级,以具备通用性的智能大模型成就行业AI大脑。
在懂懂看来,以“源1.0”为代表的大模型的价值点就在于可感知、自学习、可进化的能力,这将大大加速AI的场景化落地进程。以前AI是低效、繁琐的,而有了大模型,AI将进入高效工业化阶段,快速普及。IDC报告也认为,算法模型发展愈加复杂,巨量模型将是规模化创新的基础,“源1.0”等巨量模型的出现,让构建大模型、提升AI处理性能成为发展趋势。