OpenAIの最新モデル「GPT-5.5」が、AIコードエディタ「Cursor」に2026年4月24日から追加されました。CursorBenchで現時点のトップスコアを記録しており、5月2日まで通常の半額で試せます。
この記事でわかること:
- GPT-5.5がCursorで使えるようになった背景
- Terminal-Bench・SWE-BenchなどのベンチマークでGPT-5.4・Claude Opus 4.7との比較
- Cursor上での料金とキャンペーン詳細
- GPT-5.5 Proの対応状況と注意点
GPT-5.5がCursorで使えるようになった
OpenAIは2026年4月23日、新モデル「GPT-5.5」を発表しました。ChatGPTおよびCodexのPlus・Pro・Business・Enterpriseユーザーへの展開と同時に、翌24日にはCursorでも利用できるようになっています。
Cursorが公式フォーラムで発表した内容によると、GPT-5.5はCursorBenchで72.8%を記録し、現在のモデルラインナップのなかで最高スコアです。OpenAIとの提携により、2026年5月2日まで50%オフで提供されます。
前作のGPT-5.4がリリースされたのは2026年3月。GPT-5.5はわずか6週間後のリリースで、Anthropicのモデルリリースに対抗するペースで開発が進んでいます。
ベンチマークで見るGPT-5.4・Claude Opus 4.7との差
GPT-5.5の性能を示すベンチマーク結果は、複数の第三者評価で公開されています(参考)。
コーディングエージェントの総合性能を測る「Terminal-Bench 2.0」では82.7%を達成しました。Claude Opus 4.7の69.4%を13ポイント上回り、アジェンティックなコーディングタスクでOpenAIが首位を取り戻した形です。
GitHubのissueを一発で解決できるかを測る「SWE-Bench Pro」では58.6%を記録。また、研究者レベルの数学問題を扱う「FrontierMath Tier 4」ではGPT-5.5が35.4%、Claude Opus 4.7が22.9%で、数値計算・推論でも差がついています。
| ベンチマーク | GPT-5.5 | Claude Opus 4.7 | 測定対象 |
|---|---|---|---|
| Terminal-Bench 2.0 | 82.7% | 69.4% | CLIエージェントの多段階タスク |
| SWE-Bench Pro | 58.6% | — | GitHubのissue解決率 |
| FrontierMath Tier 4 | 35.4% | 22.9% | 高難度数学 |
OpenAIの説明では、GPT-5.4と同じ作業をより少ないトークンで完了できるとしており、1トークンあたりの生産性が上がっている点が強調されています。ただしSWE-Bench Verifiedのリファクタリング系タスクでは、Anthropicのラインナップが依然として優位な評価を得ているベンチマークも存在します。
Cursorでの料金とキャンペーン
GPT-5.5の通常価格は入力1Mトークンあたり5ドル、出力1Mトークンあたり30ドルです。GPT-5.4は入力2.5ドル・出力15ドルだったため、標準APIとしては約2倍の価格になっています。
5月2日まで適用されるキャンペーン価格は以下のとおりです。
| トークン種別 | 通常価格 | キャンペーン価格(〜5/2) |
|---|---|---|
| 入力 | $5.00 / 1M | $2.50 / 1M |
| キャッシュ済み入力 | $0.50 / 1M | $0.25 / 1M |
| 出力 | $30.00 / 1M | $15.00 / 1M |
キャンペーン期間中はGPT-5.4の通常価格と同水準で使えるため、コストを抑えながら最新モデルを試す好機です。なおCursorのUIでは一部「4月29日まで」「4月30日まで」と表示される場合がありますが、Cursorスタッフが「正式な終了日は5月2日の終日」と公式フォーラムで案内しています。
GPT-5.5 Proの対応状況
OpenAIが同時リリースしたGPT-5.5 Pro(入力30ドル・出力180ドル/1M)は、現時点でCursorには対応していません。Reasoningの強度はExtra Highまで設定できますが、Proモデルを直接選択する機能は提供されていない状況です。
まとめ
今回の対応で、CursorユーザーはGPT-5.5を追加費用なく(キャンペーン中はGPT-5.4と同じ水準のコストで)試せるようになりました。Terminal-Bench 2.0で80%超えを達成したモデルを本番ワークロードで評価するには、キャンペーン終了の5月2日が一つの判断期限です。ただし、5月3日以降は出力料金が1Mトークンあたり30ドルに戻るため、利用量が多いチームは事前にコスト試算をしておくことを勧めます。
