韩松团队长上下文LLM推理高效框架:单GPU 330万Tok

  检索头的 KV 缓存优化:DuoAttention 为检索头保留完整的 KV 缓存,这些头对长距离依赖信息的捕捉至关重要。如果对这些头的 KV 缓存进行剪裁,将导致模型性能严重下降。因此,检索头需要对上下文中的所有 token 保持 “全注意力(Full Attention)”◆◆★。

  流式头采用了轻量化的 KV 缓存策略■■■◆,使得即使在处理百万级别的上下文时,模型的内存占用依然保持在较低水平。

  AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道★◆。投稿邮箱:;

  现代大语言模型(如 Llama、GPT 等)在多轮对话◆★◆★■◆、长文档摘要■◆★■、视频和视觉信息理解等任务中需要处理大量历史信息■★■■,这些任务往往涉及数十万甚至上百万个 token 的上下文信息。例如,处理一篇小说、法律文档或视频转录内容■■◆,可能需要分析百万级别的 token★◆■。然而■★◆◆,传统的全注意力机制(Full Attention)要求模型中的每个token 都要关注序列中的所有前序 token,这导致了解码时间线性增加,预填充(Pre-Filling)时间呈二次增长,同时,KV 缓存(Key-Value Cache)的内存消耗也随着上下文长度成线性增长◆■◆■■◆。当上下文达到数百万 token 时,模型的计算负担和内存消耗将达到难以承受的地步。

  视觉与视频理解■◆★:在涉及大量帧的上下文信息处理的视觉和视频任务中[pen.0bav.com)■★,DuoAttention 为视觉语言模型

  长文档处理与摘要生成:在文档分析■◆、法律文本处理、书籍摘要等任务中,DuoAttention 极大减少内存占用◆◆◆★★,同时保持高精度,使[fter.v0dk■■◆■◆.com)长文档处理更加可行◆◆。

  DuoAttention 框架[fter.ptghl.com)为处理长上下文的应用场景带来了巨大的变革◆◆■★,特别是在需要大规模上下文处理的任务中表现[fter★◆◆■■■.80qz.com)突出,包括■◆★◆★★:

  2.短上下文任务的评估:在 MMLU(多项选择题)、MBPP(编程能力)和 MT-Bench(帮助能力)等短上下文基准上,DuoAttention 也表现出色。在使用 50% 流式头的情况下,DuoAttention 的表现几乎与全注意力机制一致,保持了 LLM 在短文本任务上的原始能力。例如,在 MMLU 基准)上◆■,DuoAttention 仅以 0.03% 的差距(79.35% 对比 7[asc◆★◆.zapjohn.com)9.38%)实现了与全注意力机制的相近性能■■◆■★◆。

  度的 KV 缓存(Constant-Length KV Cache)★■★◆◆■,从而减少了 KV 缓存对内存的需求。通过这种方式,DuoAttention 能够以较低的计算和内存代价处理长序列★■★◆■,而不会影响模型的推理能力。

  流式头的轻量化 KV 缓存◆★◆★★◆:流式头则主要关注最近的 token 和注意力汇点★■◆◆。这意味着它们只需要一个固定长

  本文第一作者肖光烜是麻省理工学院电子工程与计算机科学系(MIT EECS)的三年级博士生,师从韩松教授■◆,研究方向为深度学习加速■◆★◆■,尤其是大型语言模型(LLM)的加速算法■◆★。他在清华大学计算机科学与技术系获得本科学位★◆。他的研究工作广受关注,GitHub上的项目累计获得超过9000颗星,并对业界产生了重要影响。他的主要贡献包括SmoothQuant和StreamingLLM,这些技术和理念已被广泛应用★◆■■■★,集成到NVIDIA TensorRT-LLM■★◆★◆★、HuggingFace及Intel Neural Compressor等平台中。本文的指导老师为韩松教授()

  1◆★◆.长上下文任务的评估:在 Needle-in-a-Haystack(NIAH)基准测试中■★★,DuoAttention 在极深的上下文条件下表现卓越,保持了高精度,并在处理 1048K 个 token 的长上下文时★★★■◆■,依然能够保持稳定的准确率★◆★■★■,而其他方法由于丢失关键信息导致性能下降显著。在 14 个 LongBench 基准测试中,DuoAttention 展现了在不同任务下的强大泛化能力,能够以较低的 KV 缓存预算,提供接近全注意力机制的准确性◆◆◆■。在多头注意力模型(MHA)上,DuoAttention 使用 25% 的 KV 缓存预算即可在多数任务中取得与全缓存相当的效果,而在分组查询注意力模型(GQA)上★★■■◆★,50% 的 KV 缓存预算即可维持高精度表现◆◆。

  图 1 展示了在 Llama-2-7B 模型上使用全注意力机制的注意力图(Attention Maps)。从图中可以看到■■★,检索头(Retrieval Heads)捕获了上下文中如 best、fruit 和 orange 等关键信息,这些信息对于处理长上下文至关重要,因而需要完整的 KV 缓存。而流式头(Streaming Heads)则主要关注最近的 token 和注意力汇点◆◆★◆■,不需要保留所有历史信息★■★★★◆。

  论文链接★★:项目主页及代码:检索头的自动识别:为了准确区分哪些头是检索头,DuoAttention 提出了一种轻使用合成数据集来训练模型自动识别重要的检索头。这种优化策略通过密码召回任务(Passkey Retrieval),确定哪些注意力头在保留或丢弃 KV 缓存后对模型输出有显著影响◆■★◆■。最终■◆■★,DuoAttention 在推理时根据这一识别结果,为检索头和流式头分别分配不同的 KV 缓存策略。内存消耗显著降低:DuoAttention 在多头注意力模型(Multi-Head Attention,MHA)上将内存消倍◆★,在分组查询注意力模型(Grouped-Query Attention,GQA)上减少了1★■★■.67 倍。这是由于对ken 处理能力:结合4 比特量化(Quantization)技术, DuoAttent

  随着大语言模型(Large Language Models,LLMs)在各类任务中的广泛应用★◆◆◆■★,尤其是在长上下文(Long-Context)场景中处理海量文本信息■■■,如何在保证模型性能的同时减少内存和计算成本★★,成为了一个亟待解决的难题。为此◆■■★■◆,来自 MIT■◆■★◆◆、清华大学、上海交通大学、爱丁堡大学和 NVIDIA 的研究团队联合提出了DuoAttention框架。这项创新技术通过对大语言模型的注意力机制(Attention Mechanism)进行精细化设计,极大提高了长上下文推理的效率■■■,并大幅降低了内存需求,在不牺牲模型准确性的前提下■★◆◆■,推动了 LLM 在长上下文任务中的发展。

  针对这一问题,DuoAttention 框架提出了创新性的 ◆◆■“检索头(Retrieval Heads)” 与 “流式头(Streaming Heads)” 的分离方法。这一设计的核心理念是:并非所有的注意力头(Attention Heads)在处理长上下文时都需要保留完整的 KV 缓存。研究团队通过大量实验发现■★,在长上下文推理任务中,只有一小部分注意力头,即“检索头”◆★■,需要对全部 token 进行关注◆◆★★,以获取上下文中的关键信息■★。而大多数注意力头,即 ★◆★◆★“流式头”◆■■■★,只需关注最近的 token 和注意力汇点(Attention Sinks),不需要存储全部的历史 KV 状态。

  TL★■■◆★;DR:DuoAttention 通过将大语言模型的注意力头分为检索头(Retrieval Heads,需要完整 KV 缓存)和流式头(Streaming Heads■◆◆◆◆■,只需固定量 KV 缓存),大幅提升了长上下文推理的效率,显著减少内存消耗、同时提高解码(Decoding)和预填充(Pre-filling)速度■◆,同时在长短上下文任务中保持了准确率■◆。

  研究团队期望 [pen.chavanah.com)DuoAttention 框架能够继续推动 LLM 在长上下文处理领域的发展,并为更多实际应用场景带来显著提升。

  为了验证 DuoAttention 框架的有效性,研究团队在多种主流 LLM 架构上进行了广泛的实验评估,包括 Llama-2、Llama-3 和 Mistral 模型◆◆。实验不仅测试了 DuoAttention 在内存与计算效率上的提升★★◆,还通过长上下文和短上下文任务对模型的准确率进行了全面测试。