超越CLIP的多模态模型,只需不到1%训练数据!南加大最新研究来了
羿阁发自凹非寺
量子位|公众号QbitAI
火爆全网的AI绘画你玩了吗?
女娲无限版、DALL·E2、Imagen……这些通过文字生成图像的AI绘画工具 , 背后的原理都是一个叫“CLIP”的模型 , 它是AI如何“理解”人类语义这一问题的关键 。
文章图片
CLIP(ContrastiveLanguage–ImagePre-training) , 是一种基于对比的图片-文本学习的跨模态预训练模型 , 由OpenAI于去年1月发布 。
它好用是好用 , 但一个大问题是数据需求太大:4亿个图像文本对、256个GPU , 这对许多公司和个人都很不友好 。
对此 , 南加州大学的最新研究发现了一种基于本体的课程学习(CurriculumLearning)算法 , 只需不到1%的训练数据就能达到CLIP同款效果 , 甚至在图像检索方面表现更好 。
新方法名为TOnICS(TrainingwithOntology-InformedContrastiveSampling) , 相关论文已上传到arXiv 。
文章图片
原理介绍在介绍新方法之前 , 首先需要回顾一下CLIP 。
CLIP的模型结构其实非常简单:包括两个部分 , 即文本编码器和图像编码器 。
两者分别编码后 , 将文本和视觉嵌入映射到相同空间中 , 使用对比学习的思想 , 将匹配的图片-文本Embedding的距离拉近 , 将不匹配的Embedding拉远 。
在此基础上 , TOnICS没有选择从头训练图像和文本编码器 , 而是把单模态预训练模型BERT用于文本编码 , 微软的VinVL用于图像编码 , 并使用InfoNCE损失函数将它们彼此对齐 。
文章图片
这是一种基于本体的课程学习算法 , 从简单的样本开始训练 , 方法是随机抽样小批次 , 并通过在图像和文本输入中加入相似的小批量数据 , 逐步加大对比任务的难度 。
举个例子 , 在随机抽样生成的小批量数据中 , 如果想找到“一条叼着飞盘在草地上奔跑的狗” , 只需要先找画面中有狗的图片即可 , 因为随机生成的图像中包含狗的概率非常小 。
也就意味着 , 随机小批量抽样将对比任务简化为了对象匹配 。
文章图片
但当对小批样进行采样时 , 会抓取到很多画面中有狗的相似图片 , 因此仅靠识别图片中是否有狗已经不能解决问题了 , 该模型必须共享上下文级信息的语言和视觉表示 , 从而产生更细粒度的对齐 。
文章图片
此外 , 不同于CLIP从互联网收集构建了4亿个图像-文本对的数据集 , BERT-VinVL模型只需不到1%的训练量 , 但效果并没有打折扣 。
文章图片
研究人员在MS-COCO和ConceptualCaptions上训练BERT-VinVL模型 , 并将该模型与下游检索任务上的CLIP进行比较 。
实验结果发现 , BERT-VinVL模型同样能达到零样本学习效果 , 甚至在图像检索上表现更好(R@1提高了1.5%) 。
文章图片
研究团队该篇论文来自南加州大学的研究团队 , 作者分别是TejasSrinivasan、XiangRen和JesseThomason 。
第一作者TejasSrinivasan , 是南加州大学GLAMOR实验室的一年级博士生 , 跟随助理教授JesseThomason进行多模态机器学习和语言基础领域的研究 。
- 红米手机|上海微电子成功中标,ASML不愿看到的事情已经发生
- 苹果|有人说淘宝买来的苹果手机都是翻新机,为什么这些手机需要激活呢?
- 3g|给用户的精湛好礼,余承东:华为史上音质最好、降噪最强悍的产品
- 无线耳机|经过测试后,介绍在千元价格范围内值得花钱的6款真无线蓝牙耳机
- 海尔|淘汰旧冰箱迎来海尔新冰箱的我突然“升华”
- OPPO Watch3|OPPO Watch3官宣:10日发布 这外观比苹果的好看啊
- 芯片|国内一融资6亿的CPU芯片公司被传“倒闭”
- 高德地图|微软调配Xbox Series S RAM资源让开发者进一步发挥主机的性能
- sk海力士|被低估的骁龙8+旗舰,柔性直屏+100W快充+50MP三摄,OPPO爆发了
- 张旭豪|曾把饿了么卖给马云,赚得665亿的外卖小伙张旭豪,如今怎样了?