AI生成新春祝福海报,AIGC从“炫技”走向日常

在ChatGPT的带动下 , AIGC可以说是过去一年里最火的概念 。
就在临近春节的日子里 , 一款名为“写作蛙”的微信小程序正在悄然流行 。 简单输入几句祝福语 , 就能自动生成图文并茂的祝福海报 , 包括一段应景的祝福语和一张节日氛围满满的照片 , 让AIGC和普通网民来了场近距离的邂逅 。
AI生成新春祝福海报,AIGC从“炫技”走向日常
文章图片
深入了解后发现 , “祝福海报”的服务提供商是智谱AI , 一家起源于清华大学计算机系知识工程实验室的创业团队 , 一直定位于做中国最好的大模型 , 主导研发了多语言千亿级超大规模预训练模型 , 构建了高精度通用知识图谱 , 并将两者有机融合打造了数据与知识双轮驱动的认知引擎 。
此外 , “祝福海报”功能基于昇腾AI , 满足了实时的新春祝福生成需求 , 由西安未来人工智能计算中心提供充裕AI算力 , 北京昇腾人工智能生态创新中心提供技术支持和服务 。
理清了这样的背景 , “祝福海报”的走红似乎并不让人意外 , 就像每年春节期间上演的“技术暗战” , 2023年的兔年春节注定是人工智能的舞台 。
来自大模型的“祝福”
每一次“新玩法”的出现 , 都离不开背后的技术创新 。
看似简单的“祝福海报” , 离不开两个大模型的驱动 , 一个是千亿参数的GLM-130B , 另一个是文图大模型CogView2.5 。 在“写作蛙”小程序上生成的每一张祝福海报 , 本质上都是来自大模型的“祝福” 。
AI生成新春祝福海报,AIGC从“炫技”走向日常
文章图片
其中GLM-130B是智谱AI与清华大学KEG实验室共同发布的中英双语模型 , 拥有1300亿参数的开源开放中英双语双向稠密模型 , 可用于问答、对话、写作、填空、写摘要、取标题等应用 。
为了让千亿级参数的大模型用起来 , 智谱AI对GLM-130B进行了125TB中英文文本数据的训练 , 比其他大模型高出了一个数量级;并在保留中间计算结果为FP16的情况下 , 将GLM-130B的权重进行量化 , 在INT8精度的算力下几乎不损失结果 , 在INT4下也只有极小的损失;再加上零/少样本学习、人类反馈、P-tuning等策略 , 实现了快速推理、可复现性高、跨平台训练与推理等优势 。
按照公开榜单的对比数据 , GLM-130B与GPT-3基座模型的水平基本持平 。 目前已经有中国科协、北京市科委、华为等数百家机构和个人申请下载了GLM-130B模型 , 在开源社区GitHub上获得了1600多个星标 , 千亿参数级高精度的大模型正在被更多人使用 。
AI生成新春祝福海报,AIGC从“炫技”走向日常
文章图片
文图大模型CogView , 同样是智谱AI与清华大学联合开发的 。
CogView1.0是与OpenAI的DALL-E几乎同期的工作 , 首次实现了中文到图像的生成;基于CogView2.0开发的CogVideo , 是当时最大的预训练文本到视频生成模型 , 并在CogView2的基础上构建了迭代版本CogView2.5;目前智谱AI正在与清华大学合作研发CogView3 , 据悉效果将会有一个更新的提升 。
当然 , 想要让大模型落地应用 , 转变为“祝福海报”这样的全民应用 , 算力可以说是不可或缺的一环 。
过去短短几年时间里 , AI模型对算力的需求翻了大约100万倍 , 平均每年十几倍 , 增速甚至超过了对算法精度的需求 , 以至于传出了AIGC“日烧百万”的说法 , 症结恰恰在于算力 。 在算力即生产力的铁律下 , 能否满足大模型训练和推理的算力需求 , 无疑是AIGC能否落地的关键所在 。
为“祝福海报”担纲算力供给角色的 , 正是基于昇腾AI建设的人工智能计算中心 , 为大模型的实时推理提供了充沛算力 , 即使是在春节期间用户量激增的局面下 , 也足以应对产生的算力挑战 。