Vision Mamba

视觉Mamba来了:速度提升2.8倍,内存能省87%

Vision Mamba 不是个普通模型。号称「全面包围 Transformer」的 Mamba,推出不到两个月就有了高性能的视觉版。本周四,来自华中科技大学、地平线、智源人工智能研究院等机构的研究者提出了 Vision Mamba(Vim)。论文地址:::Vision Mamba: Efficient Visual Representation Learning with Bidirectional State Space Model效果如何呢?在 ImageNet 分类任务、COCO 对象检测任务和 ADE20
  • 1