上下文长度

无需训练!Q-Filters 实现 KV 缓存高效压缩,提升推理性能

近年来,基于 Transformer 架构的大型语言模型(LLMs)取得了显著进展,诸如 Gemini-Pro1.5、Claude-3、GPT-4和 Llama-3.1等新模型能够处理成百上千的token。 然而,这些扩展的上下文长度带来了实际应用中的一些重大挑战。 随着序列长度的增加,解码延迟上升,内存限制也成为了一个严重的瓶颈。
  • 1