在刚刚结束的 ACL2025颁奖典礼上,由 DeepSeek 的梁文锋博士作为通讯作者,与北京大学等机构联合发表的研究论文荣获最佳论文奖。这次会议规模空前,投稿数量几乎翻倍,达到了8360篇,竞争之激烈可见一斑。
该论文提出了一种名为原生稀疏注意力(NSA)的新机制,能在算法与硬件的协同优化下,将长文本的处理速度提升至惊人的11倍。而更为振奋的是,这项技术的性能不仅提升,反而超越了传统的全注意力模型。通过这项技术,研究团队成功将上下文长度扩展到了惊人的100万 tokens,这为未来的前沿模型奠定了基础。
NSA 机制的核心在于通过动态分层的稀疏策略,结合三条并行的注意力分支,有效捕捉文本中的重要信息。首先是 “压缩注意力”,负责提炼全局信息;其次是 “选择性注意力”,聚焦于重要的词块;最后是 “滑动注意力”,确保局部上下文的完整性。这种设计不仅让模型更为灵活,同时在现代 GPU 硬件上进行了深度优化,实现了原生可训练模式。
在测试中,NSA 在处理64k 长度的文本时,解码阶段速度提升了11.6倍,前向传播和反向传播速度分别提升了9倍和6倍。更重要的是,NSA 在各种基准测试中表现优异,27B 参数的模型在9个评测指标中有7个超越了全注意力基线,特别是在多跳问答和代码理解等复杂任务中展现了明显的优势。
这项研究为长文本处理开辟了新的可能性,真正实现了速度与精度的双赢,证明了 NSA 机制在 AI 领域的广泛应用前景。
论文地址:https://arxiv.org/pdf/2502.11089