2026年2月12日、OpenAIが新しいAIコーディングモデル「GPT-5.3-Codex-Spark」のリサーチプレビューを公開しました。既存のGPT-5.3-Codexの15倍高速で、秒速1000トークン以上を叩き出すという、かなり衝撃的なスペックです。

何がそんなに速いのか、そしてどこに使えるのか。調べてみたので整理してみます。

GPT-5.3-Codex-Sparkの概要

Codex-Sparkは、OpenAIの最新コーディングモデル「GPT-5.3-Codex」の軽量バージョンという位置付けです。フラッグシップ版が深い推論に強いのに対して、Sparkはとにかく速さに全振りしたモデルになっています。

ChatGPT Proユーザー向けに、Codexアプリ・VS Code拡張・CLIから利用可能です。CLIでは codex --model gpt-5.3-codex-spark で指定できます。

なぜそこまで速いのか — Cerebrasのウェーハスケールチップ

速さの秘密は、ハードウェアにあります。Sparkは従来のNVIDIA GPUクラスタではなく、CerebrasのWafer Scale Engine 3(WSE-3)上で動作しています。

通常のAIモデルは複数の小さなGPUを束ねて処理しますが、GPU間のデータ転送がボトルネックになりがちです。WSE-3はシリコンウェーハ丸ごと1枚を1チップとして使う設計で、4兆個のトランジスタを搭載。ケーブルを介さないため、データ転送の遅延がほぼ発生しません。

OpenAIとCerebrasは2026年1月に100億ドル規模の複数年パートナーシップを発表しており、Codex-Sparkはその最初の成果物です。

ソフトウェア側の最適化もすごい

ハードウェアだけでなく、通信プロトコルも刷新されています。従来のリクエスト方式からWebSocketの常時接続に移行し、以下の改善が報告されています。

  • クライアント-サーバー間のラウンドトリップ時間(RTT)が80%削減
  • 最初のトークンが返るまでの時間(TTFT)が50%改善
  • トークンあたりの内部処理オーバーヘッドが30%削減

この速さのおかげで「リアルタイムステアリング」が可能になりました。モデルがコードを生成している途中でも割り込んで方向転換できるので、バッチ処理からライブペアプログラミングへとワークフローが変わります。

フラッグシップ版との違い — トレードオフを理解する

Sparkは速い代わりに、推論の深さではフラッグシップ版に劣ります。ここは正直に把握しておくべきポイントです。

項目 Codex-Spark Codex(フラッグシップ)
トークン速度 1000+/秒 約70/秒
コンテキストウィンドウ 128k 128k
ハードウェア Cerebras WSE-3 NVIDIA GPUクラスタ
得意分野 高速イテレーション 深い推論・セキュリティ

SWE-Bench ProやTerminal-Bench 2.0ではフラッグシップより低いスコアが出ています。複雑なマルチファイルのアーキテクチャ変更には向いていません。また、OpenAIのPreparedness Frameworkでは、フラッグシップがサイバーセキュリティ能力「High」評価なのに対し、SparkはHighに達していないため、認証やセキュリティロジックの自動処理には使うべきではないとされています。

OpenAIのNVIDIA脱却が加速している

Codex-Sparkの裏にある大きな文脈として、OpenAIのNVIDIA依存からの脱却があります。2025年10月にAMDとの大規模契約、11月にAmazonとの380億ドルのクラウド契約を締結。さらに自社チップの設計も進めています。

もともと1000億ドル規模のNVIDIAとのインフラ契約が計画されていましたが、報道によるとOpenAIはNVIDIAチップの推論速度に不満を持ち始めていたとのこと。Cerebrasとの提携はまさにその解決策です。

使いどころを見極めるのが大事

Sparkは「とにかく速くコードを回したい」場面で威力を発揮します。プロトタイピング、UI構築、ボイラープレートの生成など、スピード勝負の作業に最適です。

逆に、複雑なロジック設計やセキュリティ関連のコードには、フラッグシップ版を使う方が安全ですね。2つのモデルを場面に応じて使い分ける、という運用が今後のスタンダードになりそうです。

OpenAI公式発表TechCrunchの記事に詳しい技術情報が掲載されているので、気になる方はぜひチェックしてみてください。

関連記事: Polisとは?AIで市民の合意形成を可視化するオープンソースプラットフォームの仕組みai;drとは?長文記事をAIで要約するブラウザ拡張が話題になっている理由Gemini 3 Deep Thinkが科学ベンチマークを総なめ — Googleの推論特化AIが示す新基準