DeepSeek的NSA技术(Natively Sparse Attention,原生稀疏注意力)是一种专为超快速长文本训练与推理设计的稀疏注意力机制。
该技术通过硬件对齐优化和动态分层稀疏策略,显著提升了长文本处理的效率,同时降低了预训练成本,而不牺牲性能。
NSA技术的核心特点:
动态分层稀疏策略:结合粗粒度的Token压缩和细粒度的Token选择,既保留了全局上下文感知能力,又兼顾了局部信息的精确性。
硬件对齐优化:针对现代硬件(如Tensor Core)进行设计,最大化计算效率,减少内存访问量。
端到端训练支持:支持从预训练到推理的全流程训练,减少了预训练计算成本。
显著的效率提升:在处理长序列时,NSA在解码、前向传播和反向传播等阶段均实现了显著加速,最高可达11.6倍。
实验表现:
在通用基准测试、长文本任务和基于指令的推理中,NSA的表现不仅达到了全注意力模型的水平,甚至在某些任务中表现更优。例如,在8卡A100计算集群上,NSA的前向传播和反向传播速度分别比全注意力模型快9倍和6倍。
应用场景:
NSA技术使模型能够直接处理整本书籍、代码仓库或多轮对话(如千轮客服场景),扩展了大语言模型在文档分析、代码生成和复杂推理等领域的应用边界。
DeepSeek的NSA技术被认为是AI长文本处理领域的一项重要突破,为降低AI研发门槛和推动AI的广泛应用提供了新的可能性。网友回复