苹果公司最近做出了一项颇具分量的决定,主动为其专为端侧 AI 模型训练推出的 MLX 框架增加了对英伟达 CUDA 的支持。这一消息一经传出,便在科技社区引发了热烈讨论,显示出苹果在面对英伟达强大生态时的不得已之举。
众所周知,苹果一直以来以 “封闭” 著称,但随着英伟达 CUDA 在人工智能开发领域的统治地位日益巩固,苹果显然意识到必须调整策略来抢占 AI 市场的份额。近期英伟达市值突破4万亿美元的新高,进一步推动了苹果的转变。
通过让 MLX 框架支持 CUDA,苹果开发者将能够利用英伟达 GPU 训练模型,然后再将其部署到 Mac 和 iPhone 等设备上。这一举措不仅提升了开发效率,更为苹果的 AI 生态系统注入了新的活力。
那么,为什么苹果选择拥抱 CUDA?首先,CUDA 提供了统一内存机制,这使得不同设备之间的数据共享和迁移变得更加高效。其次,支持 CUDA 可以满足开发者的跨平台部署需求,使得开发者可以在 Mac 上进行本地开发测试,之后无缝地将项目转移到英伟达 GPU 的服务器上。
回顾2018年,苹果曾因声称要对系统驱动权限进行严格控制,突然停止对多数英伟达显卡的官方支持,导致许多专业用户无法继续使用高性能英伟达 GPU。此举引发了开发者的强烈不满,甚至出现了请愿活动要求苹果和英伟达和解。时至今日,苹果的这项新策略被解读为是对六年前 “禁卡风波” 的直接回应。
英伟达的 CUDA 自2006年推出以来,已经成为 GPU 计算的行业标准,其强大的生态系统拥有超过500万开发者和数千家生成式 AI 公司,显示出其在这一领域的不可撼动地位。这也是苹果此番妥协的原因之一,正如网友所言:“不得不低头”。
此次苹果选择让 MLX 框架适配 CUDA,不仅是出于合规考虑,也是为了借力英伟达的强大生态,扩大自身在 AI 领域的影响力。