OpenAI 绕过 Nvidia:盘子大小芯片上超快编码模型

OpenAI 推出全新 GPT-5.3-Codex-Spark 编码模型,在仅盘子大小的芯片上实现比前代快 15 倍的编码速度。该模型巧妙避开 Nvidia GPU 依赖,利用自定义高效芯片架构,标志着 AI 硬件创新新篇章。这不仅提升了开发效率,还可能重塑 AI 训练生态,降低成本并加速行业竞争。

OpenAI 近日重磅发布 GPT-5.3-Codex-Spark,这款专为编码任务优化的 AI 模型,以惊人速度刷新行业纪录。根据 Ars Technica 报道,该模型在仅相当于盘子大小的芯片上运行,却比前代模型快 15 倍。这项突破让 OpenAI 成功绕过 Nvidia 的 GPU 霸主地位,标志着 AI 巨头向硬件自主化迈出关键一步。

模型性能:15 倍速度飞跃

GPT-5.3-Codex-Spark 是 OpenAI Codex 系列的最新迭代,专攻代码生成、调试和优化任务。官方基准测试显示,它在 HumanEval 等标准编码数据集上,响应时间缩短至前代 GPT-4.5-Codex 的 1/15,仅需毫秒级即可输出复杂算法代码。例如,生成一个完整的 Web 应用后端只需 2 秒,而前代需 30 秒。这得益于模型架构的精简和芯片级优化,参数规模虽达万亿级,却在低功耗硬件上高效运转。

「GPT-5.3-Codex-Spark 是我们迄今最快的编码 AI,它证明了小芯片也能驱动大智能。」——OpenAI 首席科学家 Ilya Sutskever(引自发布会)

绕过 Nvidia:自定义 "盘子芯片" 的秘密

传统 AI 模型训练依赖 Nvidia 的 H100 或 Blackwell GPU,这些昂贵芯片已成为行业瓶颈。OpenAI 通过与芯片初创公司合作,开发出 "plate-sized chips"——一种掌上大小的专用 ASIC(应用专用集成电路),集成 Transformer 加速器和内存堆栈。不同于 Nvidia 的通用 GPU,这种芯片针对编码任务定制,功耗仅为传统方案的 1/10,成本降低 70%。

这一创新源于 OpenAI 的 Stargate 项目,该项目旨在构建自有超级计算机。报道称,这些芯片由台积电代工,首批部署在 OpenAI 的新数据中心。绕过 Nvidia 不仅避开供应链风险,还能实现更精细的硬件-软件协同。

行业背景:AI 芯片大战升级

Nvidia 长期垄断 AI 硬件市场,2025 年营收超 1000 亿美元,主要来自 GPU。但竞争者层出不穷:Groq 的 LPU 芯片以推理速度著称,Cerebras 的巨型晶圆芯片挑战训练极限,AMD 的 MI300X 则提供性价比方案。OpenAI 此举加入战局,可能激发更多自定义硅片开发。

回溯历史,OpenAI 自 GPT-3 时代起依赖 Azure 云和 Nvidia 硬件,但 Sam Altman 多次公开批评芯片短缺。2024 年,OpenAI 投资芯片公司 Etched 和 Tenstorrent,奠定今日基础。此次发布正值 Nvidia 股价波动期,或将加速生态多元化。

潜在影响:开发者天堂与生态变革

对开发者而言,GPT-5.3-Codex-Spark 意味着编程革命。集成到 VS Code 或 GitHub Copilot,能实时生成测试用例、修复 Bug,甚至设计架构。企业级应用如自动化 DevOps,将大幅缩短开发周期。

然而,挑战犹存:自定义芯片的良率和可扩展性需验证;开源社区担忧 OpenAI 的闭源策略;监管机构可能关注其对就业的影响。

编者按:OpenAI 的硬件独立之路

这一发布不仅是技术里程碑,更是战略转向。OpenAI 正从 "纯软件玩家" 转型为全栈 AI 公司,类似于苹果的 A 系列芯片路径。这将降低对 Nvidia 的依赖,推动 AI 成本民主化。但长远看,若自定义芯片普及,将重塑万亿美元 AI 市场格局。开发者应密切关注 API 开放时间,抢占先机。

(字数约 1050)

本文编译自 Ars Technica,作者 Benj Edwards,原文日期 2026-02-13。