寒武纪今日宣布,已基于 vLLM 推理框架完成对深度求索(DeepSeek)最新开源模型
针对
硬件层面,寒武纪深度挖掘了 MLU 的访存与排序加速特性,有效应对
行业分析指出,DeepSeek-V4凭借百万字(1M)超长上下文及顶尖的逻辑推理性能,对底层算力架构提出了严苛要求。寒武纪在模型发布首日的敏捷适配,不仅展示了国产算力平台对超大规模、复杂结构模型的承载能力,也预示着国产 AI 产业链在软硬协同层面已进入成熟期,为大模型应用普惠提供了高效的算力底座支持。

寒武纪今日宣布,已基于 vLLM 推理框架完成对深度求索(DeepSeek)最新开源模型
针对
硬件层面,寒武纪深度挖掘了 MLU 的访存与排序加速特性,有效应对
行业分析指出,DeepSeek-V4凭借百万字(1M)超长上下文及顶尖的逻辑推理性能,对底层算力架构提出了严苛要求。寒武纪在模型发布首日的敏捷适配,不仅展示了国产算力平台对超大规模、复杂结构模型的承载能力,也预示着国产 AI 产业链在软硬协同层面已进入成熟期,为大模型应用普惠提供了高效的算力底座支持。
腾讯云在TokenHub平台推出DeepSeek-V4预览版API,支持百万级上下文长度,显著提升自然语言处理能力。定价与DeepSeek官方一致,提供高性价比服务,并在国际站新加坡节点同步上架,覆盖全球用户。
寒武纪公司宣布,已成功完成对深度求索公司开源AI模型DeepSeek-V4的Day 0适配,实现发布当天即稳定运行。通过自研融合算子库Torch-MLU-Ops,对模型中的Compressor、mHC等模块进行针对性加速,大幅提升推理效率。同时采用vLLM推理框架,为用户带来更高效的人工智能体验。
DeepSeek于4月24日发布新一代大模型DeepSeek-V4,性能比肩顶级闭源模型,成为开源AI里程碑。它支持100万tokens超长上下文,适用于长文档分析、代码生成和多轮任务。同时推出轻量版Flash和标准版,分别满足快速迭代与深度应用需求。
深度求索(DeepSeek)发布DeepSeek-V4预览版并开源,实现1M超长上下文标准化,在Agent协作、知识及推理性能上领先国内及开源领域。双版本布局:Pro版(1.6T参数,激活49B)性能对标顶级闭源模型,Flash版兼顾效率,满足不同应用需求。
寒武纪董事长陈天石在2025年度业绩说明会上回应投资者,针对互联网大厂自研芯片的竞争压力,强调公司产品采用“通用型”设计,具备更强的普适性,能应对多样化AI技术。他指出,大厂芯片多围绕主营业务提供垂直解决方案,而寒武纪的通用架构更灵活,适应不同场景需求。