近日,AMD 正式发布了名为 vLLM-ATOM 的全新插件。这款工具的核心使命是在维持现有工作流不变的前提下,显著榨取硬件潜能,为 DeepSeek-R1、Kimi-K2以及 gpt-oss-120B 等主流大语言模型的推理过程实现大幅提速。

对于开发者而言,vLLM 是一套旨在优化高并发场景下吞吐量与显存利用率的开源框架。与传统的单次调用工具不同,它更专注于请求调度与缓存管理。而此次 AMD 推出的 ATOM 插件,则是一套专为 Instinct GPU 打造的深度定制方案。它最大的亮点在于“无感迁移”:企业用户无需修改现有的 API 接口、命令或端到端操作流程,插件即可在后台自动接管并完成底层的性能优化。

image.png

从技术架构上看,vLLM-ATOM 采用了精密的三层设计。顶层继续沿用 vLLM 的请求调度与兼容接口;中间层的 ATOM 插件则负责模型实现与内核调优;而最底层的 AITER 则直接对接 GPU 硬件,提供包括 Flash Attention、量化 GEMM 以及融合 MoE 在内的核心加速能力。

这一插件主要面向 Instinct MI350、MI400以及 MI355X 等高性能 GPU 计算卡。在支持列表中,不仅涵盖了 Qwen3、GLM、DeepSeek 等明星模型,还实现了对 MoE(混合专家模型)、稠密模型以及视觉语言模型(VLM)等多种架构的全覆盖。

行业分析人士指出,该方案的核心价值在于极大地降低了高性能算力的部署门槛。通过这种“零学习成本”的平滑迁移方案,企业可以更轻松地将 AI 服务切换至 AMD 硬件后端,在保证推理效率的同时,有效提升了大模型在线服务的稳定性和响应速度。