ConvNet与Transformer谁更强?Meta评测4个领先视觉模型,LeCun转赞
【新智元导读】当前的视觉模型哪个更好?Meta团队最新一波研究来了。如何根据特定需求选择视觉模型?ConvNet/ViT、supervised/CLIP模型,在ImageNet之外的指标上如何相互比较?来自MABZUAI和Meta的研究人员发表的最新研究,在「非标准」指标上全面比较了常见的视觉模型。-CLIP模型具有较高的形状偏差,与其ImageNet精度相比,分类错误较少。