IT之家 2 月 13 日消息,Cerebras 与 OpenAI 宣布推出最新的 GPT-5.3-Codex-Spark 模型,主打实时编程。这也是 OpenAI 与 Cerebras 合作的首个公开发布成果。
IT之家注:该模型由 Cerebras 提供算力支持,已于当地时间 2 月 12 日以“研究预览”(research preview)形式开放。

据介绍,Codex-Spark 主要面向对交互速度要求极高的实时软件开发场景,可实现超 1000 tokens/s 的推理速度,从而实现近乎即时响应的编码反馈。
OpenAI 在公告中指出,近年来“agentic coding”正逐渐改变软件开发方式,机器能够在较少人工监督下持续工作数小时甚至数天。但这种模式也可能带来新的问题,包括开发者等待时间变长、对过程的掌控感降低。
OpenAI 表示,软件开发本质上是迭代过程,需要开发者在过程中不断掌控方向、决定审美与决策,因此 Codex-Spark 被设计为与 Codex 进行实时协作的模型,强调“快速、响应及时、可引导”,让开发者保持在工作中的主导位置。
从定位上看,Codex-Spark 被描述为“具备高度能力的小模型”,主要针对快速推理场景进行了优化。OpenAI 称,在 SWE-Bench Pro、Terminal-Bench 2.0 等软件工程基准测试上,Codex-Spark 在完成任务耗时显著缩短的同时,能够给出比 GPT-5.1-Codex-mini 更好的回答。
在具体能力方面,OpenAI 强调 Codex-Spark 擅长进行精确代码修改、计划调整,并能围绕代码库进行上下文问答。官方还提到,该模型适用于快速可视化新布局、优化样式,以及测试新的界面变更等工作。
OpenAI 同时也对 Cerebras 硬件能力进行了介绍。据称,Wafer-Scale Engine 具备业内最大的 SoC 片上内存,可支撑用户实现每秒数千 token 级别的高速推理,并可扩展到数千套系统,将高速内存容量扩展到多 TB 级别,以支持万亿参数模型的训练与推理。OpenAI 表示,预计在 2026 年把这种“超高速推理”能力带到更大规模的前沿模型上。
在上线范围方面,OpenAI 称 Codex-Spark 将以研究预览形式向 ChatGPT Pro 用户推送,覆盖 Codex 应用、CLI 以及 VS Code 扩展,同时 API 访问将向部分设计合作伙伴逐步开放。
本文转自:凤凰网科技
原文地址: https://tech.ifeng.com/c/8qhe6kFzgcv

小同爱分享5 天前
疫情,就是让人抑郁,又没了感情。 - 小同爱分享
小同爱分享14 天前
所谓生活不如意,就是缺少人民币。 - 小同爱分享