智源推Vision Mamba 高效处理视觉任务,内存能省87%
VisionMamba是一种新的视觉模型,通过引入状态空间模型来进行视觉建模,并在ImageNet分类、COCO对象检测和ADE20k语义分割任务上实现了更高的性能。项目地址:https://github.com/hustvl/Vim与传统的基于ConvNet的网络相比,VisionMamba在ImageNet分类任务中表现更好,并且比基于Transformer的视觉模型DeiT具有更高的分类准确率。VisionMamba的出现为视觉基础模型的发展带来了巨大的潜力。