返回列表
行业新闻AI芯片技术合作

OpenAI首次弃用英伟达,部署Cerebras芯片实现“近乎即时”代码生成

OpenAI于周四推出了GPT-5.3-Codex-Spark模型,这是一款精简的代码生成模型,旨在实现近乎即时的响应时间。此次部署标志着OpenAI首次在其传统的英伟达主导基础设施之外,与Cerebras Systems建立了重要的推理合作伙伴关系。Cerebras是一家专注于低延迟AI工作负载的晶圆级处理器制造商。此举正值OpenAI面临与英伟达关系紧张、ChatGPT引入广告、获得五角大楼合同以及内部组织变动等关键时刻。OpenAI表示,GPU仍是其训练和推理管道的基础,而Cerebras则补充了对极低延迟工作流的需求,以提升实时编码等用例的响应速度。

VentureBeat

OpenAI于周四推出了GPT-5.3-Codex-Spark,这是一款精简的代码生成模型,旨在实现近乎即时的响应时间。此举标志着该公司首次在其传统的英伟达主导基础设施之外,建立了重要的推理合作伙伴关系。该模型运行在Cerebras Systems的硬件上,Cerebras是一家位于桑尼维尔的芯片制造商,其晶圆级处理器专门用于处理低延迟的AI工作负载。

此次合作正值OpenAI的关键时刻。该公司目前正面临与长期芯片供应商英伟达关系紧张、ChatGPT引入广告引发的批评、新宣布的五角大楼合同,以及内部组织动荡(包括一个专注于安全的团队被解散,至少一名研究员辞职抗议)等局面。

OpenAI发言人向VentureBeat表示:“GPU在我们的训练和推理管道中仍然是基础性的,并为广泛使用提供了最具成本效益的token。Cerebras通过在需要极低延迟的工作流中表现出色,补充了这一基础,从而收紧了端到端循环,使得像Codex中的实时编码等用例在迭代时感觉更具响应性。”

这种谨慎的措辞——强调GPU“仍然是基础性的”,同时将Cerebras定位为“补充”——突显了OpenAI在多元化芯片供应商的同时,不疏远AI加速器领域主导力量英伟达所必须保持的微妙平衡。

OpenAI表示,速度提升会带来功能上的权衡,但开发者会接受。Codex-Spark代表了OpenAI首个专为实时编码协作而构建的模型。该公司声称,当在超低延迟硬件上运行时,该模型每秒可提供超过1000个token,但它拒绝提供具体的延迟指标,例如首个token生成时间。

相关新闻