超越ImageNet预训练,Meta AI提SplitMask,小数据集自监督预训练( 二 )


超越ImageNet预训练,Meta AI提SplitMask,小数据集自监督预训练
文章图片
实验
首先 , 实验研究了计算机视觉模型在各种数据集上的预训练和微调 , 详见表3 , 表中列出了数据集名称、训练和测试数据分布等信息 。
超越ImageNet预训练,Meta AI提SplitMask,小数据集自监督预训练
文章图片
预测任务
首先 , 该研究使用MaskR-CNNpipeline[8]在COCO目标检测和实例分割数据集上对SplitMask进行评估 , 表4为评估结果 。
由结果可得 , 在相同的BEiT模型上 , 单独在COCO数据集上预训练的模型与在ImageNet上预训练模型相比 , 前者下游任务性能更好 。 例如 , 当使用基于ViT的主干时 , 在COCO上而不是ImageNet上进行预训练会可使boxAP提升+0.4 。
超越ImageNet预训练,Meta AI提SplitMask,小数据集自监督预训练
文章图片
表6为数字分类数据集实证评估结果:
超越ImageNet预训练,Meta AI提SplitMask,小数据集自监督预训练
文章图片
表7展示了SplitMask方法使用ViT-S和ViT-B主干以及300个epoch的预训练与其他最近的基于Transformer的自监督学习方法相比的性能:
超越ImageNet预训练,Meta AI提SplitMask,小数据集自监督预训练
文章图片