FlashAttention-3

英伟达又赚到了!FlashAttention3来了:H100利用率飙升至75%

740 TFLOPS!迄今最强 FlashAttention 来了。随着大型语言模型(LLM)加速落地,扩展模型上下文窗口变得越来越重要。然而,Transformer 架构的核心 —— 注意力层的时间复杂度和空间复杂度与输入序列长度的平方成正比。这使得扩展模型上下文窗口存在挑战。2022 年,一种快速、内存高效的注意力算法 ——FlashAttention 问世,该算法无需任何近似即可加速注意力并减少内存占用。FlashAttention 对注意力计算进行重新排序的算法,并利用 tiling 和重计算来显著加快计算
  • 1