自深度学习之后|大模型如何成功落地?

自深度学习之后|大模型如何成功落地?
文章图片
自深度学习之后 , 人工智能已经很长时间没有令人惊叹的重大突破 , 当然 , 这指的是学术界 。 在产业界看来 , 当一项底层技术进入了平缓增长期 , 恰恰是工程化和商业化的最佳阶段 。
若失败 , 则意味着内外部条件不成熟 , 就像之前数十年的人工智能浪潮 , 都没有诞生大规模AI应用;若成功 , 典型特征就是门槛足够低、普及水平足够高 , 产生类似历次工业革命的效果 。
“降低AI应用门槛” , 是出现在百度口中最高频的词汇 , 不管是人工智能技术的通用性提升 , 还是深度学习平台的标准化、自动化、模块化 , 以及AI生态的构建 , 百度深谙其道 。 如今百度把目光焦点转向AI大模型 。
在近日举办的WAVESUMMIT2022深度学习开发者峰会上 , 百度发布了飞桨文心大模型和飞桨产业级深度学习开源开放平台的最新成果和重要升级 , 分享了支撑AI大模型产业落地关键路径 。
不落地的AI , 都是空谈
过去三年 , 人工智能技术一步步在向更深、更广泛的状态发展 , 这与AI应用落地的阶段有很大的关系 。
自深度学习之后|大模型如何成功落地?
文章图片
百度集团副总裁、深度学习技术及应用国家工程研究中心副主任吴甜
百度集团副总裁、深度学习技术及应用国家工程研究中心副主任吴甜曾在去年5月的WAVESUMMIT峰会上表示 , 企业AI应用分为三阶段:一是少量先行者在企业当中引入新技术 , 做探索和原型验证 , 称之为“先行者探路阶段”;二是很多企业逐渐设立小团队 , 把技术引入进来 , 进入“工作坊应用阶段”;三是企业内部很多人、大规模资源协同进行人工智能研发的“工业大生产阶段” 。
在这一过程中 , AI应用与场景、行业越来越深度结合 , 也反过来塑造了深度学习平台的标准化、自动化和模块化特征 。 例如深度学习框架与芯片的适配正越来越规范性 , 软硬件适配标准化程度显著提升 , 大规模分布式训练很多环节由手工变成自动化 , 开发门槛大幅下降 。
飞桨深度学习平台集合了训练和推理框架、基础模型库、端到端开发套件和丰富的工具组件 , 已经大幅降低了AI应用开发门槛 , 而大模型更进一步 , 大规模预训练扩展了模型的泛化能力 , 一定程度上解决了通用性难题 , 一些AI专家将其命名为“FoundationModels(基石模型)” 。
如果打个比喻便于理解 , 深度学习平台让AI开发变得像使用傻瓜式相机一样易用 , 而大模型 , 就像为相机设置了更多拍照模式 , 比如人像模式、风景模式等 , 开发者只需要在各种模式下做自己下一步的创新 。
AI大模型成为行业热点已经有两三年时间 , 2020年 , GPT-3横空出世刷新了业界认知 , 2021年数量众多的大模型涌现 , 以至于引起大模型是否过剩的讨论 , 但在百度看来 , 2022年是大模型产业落地的关键年 。
吴甜表示 , 大模型历经了前几年的探索期、突破期 , 已经在一定程度上到达推广期 。 大模型面临如何能够落地 , 如何能够在真实的应用场景中产生价值的问题 。 从应用落地角度 , 大模型落地要解决前沿技术与各种真实应用场景之间的鸿沟 , 匹配上应用落地时全方位的要求 , 这是大模型今年需要核心解决的问题 。
大模型如何落地
从百度多年来的技术和业务经验角度来看 , 百度认为推进大模型需要三个方面的工作:
自深度学习之后|大模型如何成功落地?】一是建设大模型体系 , 而且这个体系能够与应用场景相衔接 。